注册 登录 进入教材巡展
#
  • #

出版时间:2017-03

出版社:机械工业出版社

以下为《统计学习理论基础》的配套数字资源,这些资源在您购买图书后将免费附送给您:
试读
  • 机械工业出版社
  • 9787111555223
  • 1-2
  • 175945
  • 60258041-7
  • 平装
  • B5
  • 2017-03
  • 211
  • 180
  • 理学
  • 统计学
  • C81
  • 经济统计学
  • 本科
内容简介
本书原作者是美国普林斯顿大学电气工程系和哲学系的两位教授,本书是在普林斯顿大学“电气工程及原理”课程中关于“学习理论和认知论”的入门性课程基础上形成的。

全书共包含18个章节,从概率密度、贝叶斯决策理论引入样本学习的基本概念,进而介绍了近邻域学习、核学习及神经网络学习,在此基础上探讨了PCA学习、VC维概念、函数估计问题等,后重点介绍了非常实用的支持向量机(SVM)及Boosting方法。各章均包含小结、附录、习题及参考资料,非常适合于大专院校计算机及电气工程类硕博士研究生及高年级学生作为教学参考书。

【推荐简言】

本书以通俗易懂的方式提供了统计学习理论与机器学习及模式识别的基本概念及常用算法,为新兴领域的统计学习理论提供了一个宽泛和易于理解的入门性介绍。这一领域的发展源于对模式识别和机器学习、非参数统计、计算机科学、语言学中的语言学习和认知心理学、哲学问题中的归纳法以及哲学和科学方法论等学科与技术的研究。

本书是“学习理论与认知论”课程的非常好的入门教材,目前已在普林斯顿大学电气工程专业的教学中使用。“学习理论与认知论”课程并没有特定的基础要求,向所有对其感兴趣的学生开放,包括新生、主修科学的高年级学生,以及来自工程、人文、社会科学的学生。虽然许多材料技术性较强,但是我们发现大部分学生可以体会和领悟本书的要点。
目录
译者序
前言
第1章 引言:分类、学习、特征及应用
1.1范围
1.2为什么需要机器学习?
1.3一些应用
1.3.1图像识别
1.3.2语音识别
1.3.3医学诊断
1.3.4统计套利
1.4测量、特征和特征向量
1.5概率的需要
1.6监督学习
1.7小结
1.8附录:归纳法
1.9问题
1.10参考文献
第2章 概率
2.1一些基本事件的概率
2.2复合事件的概率
2.3条件概率
2.4不放回抽取
2.5一个经典的生日问题
2.6随机变量
2.7期望值
2.8方差
2.9小结
2.10附录:概率诠释
2.11问题
2.12参考文献
第3章 概率密度
3.1一个二维实例
3.2在\[0,1\]区间的随机数
3.3密度函数
3.4高维空间中的概率密度
3.5联合密度和条件密度
3.6期望和方差
3.7大数定律
3.8小结
3.9附录:可测性
3.10问题
3.11参考文献
第4章 模式识别问题
4.1一个简单例子
4.2决策规则
4.3成功基准
4.4最佳分类器:贝叶斯决策规则
4.5连续特征和密度
4.6小结
4.7附录:不可数概念
4.8问题
4.9参考文献
第5章 最优贝叶斯决策规则
5.1贝叶斯定理
5.2贝叶斯决策规则
5.3最优及其评论
5.4一个例子
5.5基于密度函数的贝叶斯定理及决策规则
5.6小结
5.7附录:条件概率的定义
5.8问题
5.9参考文献
第6章 从实例中学习
6.1概率分布知识的欠缺
6.2训练数据
6.3对训练数据的假设
6.4蛮力学习方法
6.5维数灾难、归纳偏置以及无免费午餐原理
6.6小结
6.7附录:学习的类型
6.8问题
6.9参考文献
第7章 最近邻规则
7.1最近邻规则
7.2最近邻规则的性能
7.3直觉判断与性能证明框架
7.4使用更多邻域
7.5小结
7.6附录:当人们使用最近邻域进行推理时的一些问题
7.6.1谁是单身汉?
7.6.2法律推理
7.6.3道德推理
7.7问题
7.8参考文献
第8章 核规则
8.1动机
8.2最近邻规则的变体
8.3核规则
8.4核规则的通用一致性
8.5势函数
8.6更多的通用核
8.7小结
8.8附录:核、相似性和特征
8.9问题
8.10参考文献
第9章 神经网络:感知器
9.1多层前馈网络
9.2神经网络用于学习和分类
9.3感知器
9.3.1阈值
9.4感知器学习规则
9.5感知器的表达能力
9.6小结
9.7附录:思想模型
9.8问题
9.9参考文献
第10章 多层神经网络
10.1多层网络的表征能力
10.2学习及S形输出
10.3训练误差和权值空间
10.4基于梯度下降的误差最小化
10.5反向传播
10.6反向传播方程的推导
10.6.1单神经元情况下的推导
10.6.2多层网络情况下的推导
10.7小结
10.8附录:梯度下降与反射平衡推理
10.9问题
10.10参考文献
第11章 可能近似正确(PAC)学习
11.1决策规则分类
11.2来自一个类中的最优规则
11.3可能近似正确准则
11.4PAC学习
11.5小结
11.6附录:识别不可辨元
11.7问题
11.8参考文献
第12章 VC维
12.1近似误差和估计误差
12.2打散
12.3VC维
12.4学习结果
12.5举例
12.6神经网络应用
12.7小结
12.8附录:VC维与波普尔(Popper)维度
12.9问题
12.10参考文献
第13章 无限VC维
13.1类层次及修正的PAC准则
13.2失配与复杂性间的平衡
13.3学习结果
13.4归纳偏置与简单性
13.5小结
13.6附录:均匀收敛与泛致性
13.7问题
13.8参考文献
第14章 函数估计问题
14.1估计
14.2成功准则
14.3最优估计:回归函数
14.4函数估计中的学习
14.5小结
14.6附录:均值回归
14.7问题
14.8参考文献
第15章 学习函数估计
15.1函数估计与回归问题回顾
15.2最近邻规则
15.3核方法
15.4神经网络学习
15.5基于确定函数类的估计
15.6打散、伪维数与学习
15.7结论
15.8附录:估计中的准确度、精度、偏差及方差
15.9问题
15.10参考文献
第16章 简明性
16.1科学中的简明性
16.1.1对简明性的明确倡导
16.1.2这个世界简单吗?
16.1.3对简明性的错误诉求
16.1.4对简明性的隐性诉求
16.2排序假设
16.2.1两种简明性排序法
16.3两个实例
16.3.1曲线拟合
16.3.2枚举归纳
16.4简明性即表征简明性
16.4.1要确定表征系统吗?
16.4.2参数越少越简单吗?
16.5简明性的实用理论
16.6简明性和全局不确定性
16.7小结
16.8附录:基础科学和统计学习理论
16.9问题
16.10参考文献
第17章 支持向量机
17.1特征向量的映射
17.2间隔最大化
17.3优化与支持向量
17.4实现及其与核方法的关联
17.5优化问题的细节
17.5.1改写分离条件
17.5.2间隔方程
17.5.3用于不可分实例的松弛变量
17.5.4优化问题的重构和求解
17.6小结
17.7附录:计算
17.8问题
17.9参考文献
第18章 集成学习
18.1弱学习规则
18.2分类器组合
18.3训练样本的分布
18.4自适应集成学习算法(AdaBoost)
18.5训练数据的性能
18.6泛化性能
18.7小结
18.8附录:集成方法
18.9问题
18.10参考文献
Baidu
map