统计学习方法 - 李航

统计学习方法

李航

出版时间

2012-02-29

ISBN

9787302275954

评分

★★★★★

标签

编程

书籍介绍

详细介绍支持向量机、Boosting、最大熵、条件随机场等十个统计学习方法。

AI导读
核心看点
  • 系统梳理十大经典统计学习方法
  • 数学推导严谨,公式证明详尽
  • 结构清晰,各章相对独立易查
适合谁读
  • 具备数学基础的机器学习从业者
  • 需复习算法原理的面试求职者
  • 已入门并想深化理论的研究者
读前提醒
  • 不适合零基础初学者直接入门
  • 建议先修Andrew Ng课程打底
  • 需配合动手实现算法以加深理解
读者共识
  • 内容精简干货多,适合查阅复习
  • 理论深度足,但实例解释较简略
  • 国内原创教材标杆,逻辑严密

本导读基于书籍简介、目录、原文摘录、短评和书评生成,不等同于全文精读。

精彩摘录
  • "定理 2.1 (Novikoff) 设训练数据集 T={(𝑥₁,𝑦₁), (𝑥₂,𝑦₂), ..., (𝑥_N, 𝑦_N)} 是线性可分的, 其中 𝑥ᵢ∈𝒳=ℝⁿ, 𝑦ᵢ∈𝒴={-1,+1}, i=1,2,...,N, 则 (1) 存在满足条件 ||{\hat w}_{opt}||=1 的超平面 {\hat w}_{opt} \dot \hat x = w_opt \dot x + b_{opt} = 0 将数据集完全分开; 且存在 γ>0, 对所有 i=1,2,...,N ..."
  • "算法 2.2 (感知机学习算法的对偶形式) ... (3) 如果 y_i(\sum_{j=1}^N \alpha_j y_j x_j \dot x_i+b) \le 0, \alpha_i \leftarrow \alpha_i+\eta b \leftarrow b + \eta y_i"
  • "算法 3.3 (用 kd 树的最近邻搜索) ... (3) ... (b) 当前最近点一定存在于该节点一个子节点对应的区域. 检查该子结点的另一个子结点对应的区域是否有更近的点. 具体地, 检查另一子结点对应的区域是否与以目标点为求新, 以目标点与"当前最近点"的距离为半径的超球体相交."
  • "3.3 参照算法 3.3, 写出输出为 x 的 k 近邻的算法"
  • "Q(\theta, \theta^{i}) = E_{Z}[\log P(Y, Z|\theta)Y, \theta^{i}] = \sum_{Z}\log P(Y, Z|\theta)P(Z|Y, \theta^{i})"
  • "第2章 感知器"
  • "第3章 K近邻"
  • "第4章 朴素贝叶斯"
作者简介
李航 日本京都大学电气工程系毕业,日本东京大学计算机科学博士。曾任职于日本NEC公司中央研究所,微软亚洲研究院高级研究员及主任研究员,现任华为诺亚方舟实验室首席科学家。北京大学、南开大学、西安交通大学客座教授。研究方向包括信息检索、自然语言处理、统计机器学习及数据挖掘。
目录
第1章 统计学习方法概论
1.1 统计学习
1.2 监督学习
1.3 统计学习三要素
1.4 模型评估与模型选择

显示全部
用户评论
最近一个月又仔细地通读了一遍这本书,收回曾经的三星评价变成四星。这本书确实内容逻辑清晰,值得每位学机器学习的人拿来补充一下基础知识,不是太适合入门者。扣一星是觉得李航博士也许可以写一本更棒的书,稍微有些大材小用。
标准的国内教材,基本该涉及到的知识点都设计到了,就是不适合用来学习。只适合用作在学习完国外的教材或者课程之后当作手册来查询。
这本书对于算法的描述还算简洁。但是这本书仅仅是把一个算法本身描述清楚了,算法的来龙去脉,为什么要这么算都没有交代。理论基础明显不足。要是做机器学习的和统计学习的都只是知道怎么算而不知道为什么这么算,和算命的没有多大区别。
其实只看了SVM一章,李航博士功力深厚,将复杂的SVM理论讲的无比透彻,来龙去脉条理清晰;不过作为教科书,重于本质理论的介绍,给出了大量证明,之前看网上很火的那个SVM入门教程,对svm的理解还是流于形式,知其然不知其所以然,这次看这本书解开了不少疑惑。从线性可分SVM(硬间隔最大化)、线性SVM(软间隔最大化),到非线性SVM(核技巧),每一节都是同一风格的安排:问题描述、形式化定义,学习的对偶算法,其中穿插证明。还有最后一节SMO没看。
Ummm 和概念先混个眼熟
逻辑清晰,结构严谨,行文优雅,深入浅出,简单几句就能感受作者的厚积薄发
机器学习入门级书籍
架构推荐的书,机器学习读两本,西瓜书加这本。
课本
Z-Library
收藏