描述
开 本: 16开纸 张: 胶版纸包 装: 平装-胶订是否套装: 否国际标准书号ISBN: 9787111690221丛书名: 华章数学译丛
编辑推荐
本书可作为在线凸优化大量理论的导论教程。第2~5章主要介绍在线凸优化的基本概念、架构和核心算法。本书其余部分则处理更为高级的算法、更为困难的设定和与著名的机器学习范式之间的关系。
内容简介
本书可作为在线凸优化大量理论的导论教程。第2~5章主要介绍在线凸优化的基本概念、架构和核心算法。本书其余部分则处理更为高级的算法、更为困难的设定和与著名的机器学习范式之间的关系。
目 录
前言
致谢
第1章 导论 1
1.1 在线凸优化模型 2
1.2 可以用OCO建模的例子 3
1.3 一个温和的开始: 从专家建议中学习 8
1.3.1 加权多数算法 10
1.3.2 随机加权多数算法 12
1.3.3 对冲 14
1.4 习题 16
1.5 文献点评 17
第2章 凸优化的基本概念 18
2.1 基本定义和设定 18
2.1.1 在凸集上的投影 20
2.1.2 条件简介 21
2.2 梯度、次梯度下降法 23
2.3 非光滑和非强凸函数的归约 27
2.3.1 光滑非强凸函数的归约 28
2.3.2 强凸非光滑函数的归约 29
2.3.3 一般凸函数的归约 32
2.4 例子: 支持向量机训练 33
2.5 习题 35
2.6 文献点评 37
第3章 在线凸优化的一阶算法 38
3.1 在线梯度下降法 39
3.2 下界 42
3.3 对数遗憾 43
3.4 应用: 随机梯度下降法 45
3.5 习题 49
3.6 文献点评 50
第4章 二阶方法 51
4.1 动机: 通用投资组合选择 51
4.1.1 主流投资组合理论 51
4.1.2 通用投资组合理论 52
4.1.3 持续再平衡投资组合 54
4.2 exp-凹函数 55
4.3 在线牛顿步算法 57
4.4 习题 63
4.5 文献点评 64
第5章 正则化 66
5.1 正则函数 67
5.2 RFTL 算法及其分析 69
5.2.1 元算法的定义 70
5.2.2 遗憾界 70
5.3 在线镜像下降法 74
5.3.1 迟缓型OMD算法与RFTL 算法的等价性 75
5.3.2 镜像下降的遗憾界 76
5.4 应用及特殊情形 78
5.4.1 在线梯度下降法的导出 79
5.4.2 乘法更新的导出 79
5.5 随机正则化 81
5.5.1 对凸代价函数的扰动 82
5.5.2 对线性代价函数的扰动 86
5.5.3 专家建议中的扰动领袖追随算法 87
5.6 正则化(选学) 90
5.7 习题 96
5.8 文献点评 98
第6章 Bandit凸优化 100
6.1 BCO设定 100
6.2 多臂赌博机问题 101
6.3 从有限信息到完整信息的归约 107
6.3.1 第1部分: 使用无偏估计 107
6.3.2 第2部分: 点点梯度估计 110
6.4 不需要梯度的在线梯度下降算法 113
6.5 BLO遗憾算法(选学) 116
6.5.1 自和谐障碍 116
6.5.2 一个近优算法 118
6.6 习题 121
6.7 文献点评 122
第7章 无投影算法 123
7.1 回顾: 与线性代数相关的概念 123
7.2 动机: 矩阵补全与推荐系统 124
7.3 条件梯度法 126
7.4 投影与线性优化 131
7.5 在线条件梯度算法 133
7.6 习题 138
7.7 文献点评 139
第8章 博弈、对偶性和遗憾 140
8.1 线性规划和对偶性 141
8.2 零和博弈与均衡 142
8.3 冯·诺伊曼定理的证明 146
8.4 近似线性规划 148
8.5 习题 150
8.6 文献点评 150
第9章 学习理论、泛化和OCO 152
9.1 统计学习理论的设定 152
9.1.1 过拟合 153
9.1.2 没有免费
致谢
第1章 导论 1
1.1 在线凸优化模型 2
1.2 可以用OCO建模的例子 3
1.3 一个温和的开始: 从专家建议中学习 8
1.3.1 加权多数算法 10
1.3.2 随机加权多数算法 12
1.3.3 对冲 14
1.4 习题 16
1.5 文献点评 17
第2章 凸优化的基本概念 18
2.1 基本定义和设定 18
2.1.1 在凸集上的投影 20
2.1.2 条件简介 21
2.2 梯度、次梯度下降法 23
2.3 非光滑和非强凸函数的归约 27
2.3.1 光滑非强凸函数的归约 28
2.3.2 强凸非光滑函数的归约 29
2.3.3 一般凸函数的归约 32
2.4 例子: 支持向量机训练 33
2.5 习题 35
2.6 文献点评 37
第3章 在线凸优化的一阶算法 38
3.1 在线梯度下降法 39
3.2 下界 42
3.3 对数遗憾 43
3.4 应用: 随机梯度下降法 45
3.5 习题 49
3.6 文献点评 50
第4章 二阶方法 51
4.1 动机: 通用投资组合选择 51
4.1.1 主流投资组合理论 51
4.1.2 通用投资组合理论 52
4.1.3 持续再平衡投资组合 54
4.2 exp-凹函数 55
4.3 在线牛顿步算法 57
4.4 习题 63
4.5 文献点评 64
第5章 正则化 66
5.1 正则函数 67
5.2 RFTL 算法及其分析 69
5.2.1 元算法的定义 70
5.2.2 遗憾界 70
5.3 在线镜像下降法 74
5.3.1 迟缓型OMD算法与RFTL 算法的等价性 75
5.3.2 镜像下降的遗憾界 76
5.4 应用及特殊情形 78
5.4.1 在线梯度下降法的导出 79
5.4.2 乘法更新的导出 79
5.5 随机正则化 81
5.5.1 对凸代价函数的扰动 82
5.5.2 对线性代价函数的扰动 86
5.5.3 专家建议中的扰动领袖追随算法 87
5.6 正则化(选学) 90
5.7 习题 96
5.8 文献点评 98
第6章 Bandit凸优化 100
6.1 BCO设定 100
6.2 多臂赌博机问题 101
6.3 从有限信息到完整信息的归约 107
6.3.1 第1部分: 使用无偏估计 107
6.3.2 第2部分: 点点梯度估计 110
6.4 不需要梯度的在线梯度下降算法 113
6.5 BLO遗憾算法(选学) 116
6.5.1 自和谐障碍 116
6.5.2 一个近优算法 118
6.6 习题 121
6.7 文献点评 122
第7章 无投影算法 123
7.1 回顾: 与线性代数相关的概念 123
7.2 动机: 矩阵补全与推荐系统 124
7.3 条件梯度法 126
7.4 投影与线性优化 131
7.5 在线条件梯度算法 133
7.6 习题 138
7.7 文献点评 139
第8章 博弈、对偶性和遗憾 140
8.1 线性规划和对偶性 141
8.2 零和博弈与均衡 142
8.3 冯·诺伊曼定理的证明 146
8.4 近似线性规划 148
8.5 习题 150
8.6 文献点评 150
第9章 学习理论、泛化和OCO 152
9.1 统计学习理论的设定 152
9.1.1 过拟合 153
9.1.2 没有免费
前 言
本书可用作大量在线凸优化(OnlineConvexOptimization,OCO)理论的导论.它是一本针对研究生课程的基础内容设计的高等教材,可作为深入优化与机器学习交叉领域的研究人员的参考书.
这一课程于2010~2014年在Technion开设,每一年都有一些小的变化,之后于2015~2016年在普林斯顿大学开设.这些课程中的核心材料在本书中均有涉及,同时本书也附带了习题以便学生完成部分计算和证明,还有一些具有启发性和发人深省的内容.多数材料是以应用实例的形式给出的,这些例子贯穿不同的主题,包括来自专家建议的预测(predictionfromexpertadvice)、投资组合选择(portfolioselection)、矩阵补全(matrixcompletion)和推荐系统(recommendationsystem)、支持向量机(SupportVectorMachine,SVM)的训练等.
希望本书可以为读者、教师和研究人员提供帮助.
请将本书置于机器学习的图书馆中
近年来,在机器学习广阔领域的子学科,如在线学习(onlinelearning)、提升方法(boosting)、博弈中的遗憾值小化方法(regretminimizationingames)、通用预测方法(universalprediction)和其他相关主题中出现了大量的入门文献.在本书中,很难对所有这些内容进行取舍,但它们也许指出了本书在读者拥有的虚拟图书馆中的位置.
紧挨着本书的应当是Cesa-Bianchi和Lugosi[29]的精彩教材,正是它启迪了本书的撰写.事实上,它启迪了博弈论中学习方法的整个领域.另外,有着无数有关凸优化和凸分析的入门文献,包括[23,78,76,77,21,92].有关机器学习的文献太多了,不可能在此一一给出.
本书的主要目的是为在线凸优化和凸优化与机器学习相结合的课程提供教材.在线凸优化已经在很多综述和入门文献(例如[53,97,85,87])中产生了足够大的影响.希望本书能进一步丰富这些文献.
本书的结构
本书旨在为计算机科学、电气工程、运筹学、统计学及相关领域的研究生提供自学课程的参考.因此,本书遵循了在Technion讲授的“决策分析”课程的架构.
根据课程的深度和广度,每一章都应讲授一周或两周.第1章为导论,因此没有其他部分那么严格.
全书可以粗略地分成两个部分:部分从第2章到第5章,包括在线凸优化的基本概念、架构和核心算法;第二部分从第6章到第9章,旨在处理更高级的算法、更困难的设定和与著名的机器学习范式之间的关系.
这一课程于2010~2014年在Technion开设,每一年都有一些小的变化,之后于2015~2016年在普林斯顿大学开设.这些课程中的核心材料在本书中均有涉及,同时本书也附带了习题以便学生完成部分计算和证明,还有一些具有启发性和发人深省的内容.多数材料是以应用实例的形式给出的,这些例子贯穿不同的主题,包括来自专家建议的预测(predictionfromexpertadvice)、投资组合选择(portfolioselection)、矩阵补全(matrixcompletion)和推荐系统(recommendationsystem)、支持向量机(SupportVectorMachine,SVM)的训练等.
希望本书可以为读者、教师和研究人员提供帮助.
请将本书置于机器学习的图书馆中
近年来,在机器学习广阔领域的子学科,如在线学习(onlinelearning)、提升方法(boosting)、博弈中的遗憾值小化方法(regretminimizationingames)、通用预测方法(universalprediction)和其他相关主题中出现了大量的入门文献.在本书中,很难对所有这些内容进行取舍,但它们也许指出了本书在读者拥有的虚拟图书馆中的位置.
紧挨着本书的应当是Cesa-Bianchi和Lugosi[29]的精彩教材,正是它启迪了本书的撰写.事实上,它启迪了博弈论中学习方法的整个领域.另外,有着无数有关凸优化和凸分析的入门文献,包括[23,78,76,77,21,92].有关机器学习的文献太多了,不可能在此一一给出.
本书的主要目的是为在线凸优化和凸优化与机器学习相结合的课程提供教材.在线凸优化已经在很多综述和入门文献(例如[53,97,85,87])中产生了足够大的影响.希望本书能进一步丰富这些文献.
本书的结构
本书旨在为计算机科学、电气工程、运筹学、统计学及相关领域的研究生提供自学课程的参考.因此,本书遵循了在Technion讲授的“决策分析”课程的架构.
根据课程的深度和广度,每一章都应讲授一周或两周.第1章为导论,因此没有其他部分那么严格.
全书可以粗略地分成两个部分:部分从第2章到第5章,包括在线凸优化的基本概念、架构和核心算法;第二部分从第6章到第9章,旨在处理更高级的算法、更困难的设定和与著名的机器学习范式之间的关系.
评论
还没有评论。