《Convex Optimization》是一本由Stephen Boyd / Lieven Vandenberg著作,Cambridge University Press出版的Hardcover图书,本书定价:USD 90.00,页数:727,特精心从网络上整理的一些读者的读后感,希望对大家能有帮助。
《Convex Optimization》精选点评:
●Very basic
●convex 是真的有意思
●读过,一知半解。。。
●classic introductory book on convex opt
●据说这本书非常经典。我猜大家喜欢它的原因是:上课没听明白之后,心想看看教材吧,然后打开书,“俺娘来,老师真仗义啊,这书一行也看不懂呢!”
●还是要再多读几遍,非常非常有用。
●读过目录
●工科的写法,理论部分废话特别多
●书本身写得循序渐进、非常结构化,读起来很轻松。个人感觉理论部分受益最多,应用部分因为有learning的经验读起来很爽,算法实现部分中的收敛性分析如果觉得难跳过也不影响阅读。没做习题,回头再说。总之,好书一本。
●需要比较扎实的线性代数基础
《Convex Optimization》读后感(一):很不错
这本书最大的不同就是理论介绍很多,而且采用很好的几何学到方法解释,非常清楚。后面一部分介绍具体到算法,只介绍了重要的算法,如果能于Numerical Opimization结合看会很好。此外,还可以verycd上找到视频讲座,那个老外发音相当标准。;)
《Convex Optimization》读后感(二):一本凸规划问题的实用教程
看起来是厚厚的一本大部头,读起来并不太费力。它给出的实例多而好用、覆盖面全,不需要太深刻的数学功底,对于复杂的定理性质等也不强调证明,而是着眼于几何意义和实际用途,直观易懂。
作者本身的工科背景使得这本书在工业问题和计算机等实用方面的优点更为突出,数学依据上覆盖面广而不强调深,非常值得想要了解非线性规划的人一读。
唯一的缺点恐怕是想要耐下心来细读这本英文原著要花点精力。不过绝对是值得的。
《Convex Optimization》读后感(三):最好的教材,最好的课程,没有之一
这本书主要是面向实际应用。书中提供了凸优化的理论框架,但不强调复杂的定理证明。丰富的实例是这本书的特色。实例涉及的领域非常广例如通信,金融,机器学习等等。
tephen教授在个人主页上提供了免费电子版本,而且还包含了习题以及相关数据和程序的下载。课程的讲义也可以在网站上找到。
http://www.stanford.edu/~boyd/cvxbook/
本书对应的公开课程也可以在youtube上找到。Youku上也有人上传,搜索Convex Optimization的关键词能够找到。以下是公开课的链接。
ConvexOptimization I: http://rrurl.cn/8Ssz0l
ConvexOptimization II: http://rrurl.cn/rRkcph
课程内容非常棒。听一个博学,聪明而且极富幽默感的人讲数学是一种享受。个人觉得收获的不只是知识,更重要的是思维方式在潜移默化中得到锻炼和提升。Stephen教授喜欢通过自问自答的方式讲授知识。在这个过程中可以学习到如何问问题、判断问题的价值、分析和解决问题以及如何更加直观的理解抽象的知识。 Stephen教授讲课的另一特点是善于帮助观众建立起一个清晰的理论框架。哪些知识重要,哪些知识是技术细节,听完课后十分清晰。
《Convex Optimization》读后感(四):英文原版资源和书中习题答案、python代码下载
扫码关注公众号 「图灵的猫」,点击“学习资料”菜单,可以获得海量python、机器学习、深度学习书籍、课程资源,以及书中对应习题答案和代码。后台回复SSR更有机场节点相送~
我总结了深度学习、机器学习领域中所有会用到的数学知识,大家在制定计划时可以以这些知识点为脉络进行学习,如无必要,不要投入太多时间去学习这些以外的知识
微积分
微积分是现代数学的基础,线性代数,矩阵论,概率论,信息论,最优化方法等数学课程都需要用到微积分的知识。单就机器学习和深度学习来说,更多用到的是微分。积分基本上只在概率论中被使用,概率密度函数,分布函数等概念和计算都要借助于积分来定义或计算。 几乎所有学习算法在训练或者预测时都是求解最优化问题,因此需要依赖于微积分来求解函数的极值,而模型中某些函数的选取,也有数学性质上的考量。对于机器学习而言,微积分的主要作用是:1.求解函数的极值 2.分析函数的性质下面列出机器学习和深度学习中所需的微积分知识点,显然,不是课本里所讲的所有内容都是需要的,我们只列出所必须的。极限:极限是高等数学和初等数学的分水岭,也是微积分这座大厦的基石,是导数、微分、积分等概念的基础。虽然在机器学习里不直接用到极限的知识,但要理解导数和积分,它是必须的。上确界与下确界:这一对概念对工科的微积分来说是陌生的,但在机器学习中会经常用到,不要看到论文或书里的sup和inf不知道什么意思。导数:其重要性众所周知,求函数的极值需要它,分析函数的性质需要它。典型的如梯度下降法的推导,logistic函数导数的计算。熟练地计算函数的导数是基本功。Lipschitz连续性:这一概念在工科教材中同样没有提及,但对分析算法的性质却很有用,在GAN,深度学习算法的稳定性、泛化性能分析中都有用武之地。导数与函数的单调性:某些算法的推导,如神经网络的激活函数,AdaBoost算法,都需要研究函数的单调性。导数与函数的极值:这个在机器学习中处于中心地位,大部分优化问题都是连续优化问题,因此可以通过求导数为0的点而求函数的极值,以实现最小化损失函数,最大化似然函数等目标。导数与函数的凹凸性:在凸化,Jensen不等式的证明中都有它的应用。泰勒公式:又一个核心知识点。在优化算法中广泛使用,从梯度下降法,牛顿法,拟牛顿法,到AdaBoost算法,梯度提升算法,XGBoost的推导都离不开它。不定积分:积分在机器学习中使用的相对较少,主要用于概率的计算中,它是定积分的基础。定积分:包括广义积分,被用于概率论的计算中。机器学习中很大一类算法是概率型算法,如贝叶斯分类器,概率图模型,变分推断等。这些地方都涉及到对概率密度函数进行积分。变上限积分。分布函数是典型的变上线积分函数,同样主要用于概率计算中。牛顿-莱布尼兹公式。在机器学习中很少直接使用,但它是微积分中最重要的公式之一,为定积分的计算提供了依据。常微分方程。在某些论文中会使用,但一般算法用不到。偏导数。重要性不用多说,机器学习里绝大部分函数都是多元函数,要求其极值,偏导数是绕不开的。梯度。决定了多元函数的单调性和极值,梯度下降法的推导离不开它。几乎所有连续优化算法都需要计算函数的梯度值,且以寻找梯度为0的点作为目标。高阶偏导数。确定函数的极值离不开它,光有梯度值还无法确定函数的极值。链式法则。同样使用广泛,各种神经网络的反向传播算法都依赖于链式法则。Hessian矩阵。决定了函数的极值和凹凸性,对使用工科教材的同学可能是陌生的。多元函数的极值判别法则。虽然不直接使用,但对理解最优化方法至关重要。多元函数的凹凸性判别法则。证明一个问题是凸优化问题是离不开它的。Jacobian矩阵。工科教材一般没有介绍这一概念,但和Hessian矩阵一样,并不难理解,使用它可以简化多元复合函数的求导公式,在反向传播算法中广泛使用。向量与矩阵求导。常见的一次函数,二次函数的梯度,Hessian矩阵的计算公式要烂熟于心,推导并不复杂。泰勒公式。理解梯度下降法,牛顿法的优化算法的基石。多重积分。主要用于概率论中,计算随机向量的积分,如正态分布。