-->

机器学习40讲_01_开篇词_打通修炼机器学习的任督二脉

你好,我是王天一。

我在人工智能基础课之机器学习,欢迎你的到来。

在上一季的专栏当中,我和你一块儿走马观花的浏览了学习人工智能所需要的基础数学,当前流行的深度学习技术,以及其他可能实现智能的技术路径。

广义的人工智能概念,它可以说是包罗万象。

其中每一个细分的子领域发展到今天,都值得大数特书。

所以,用四十篇文章的篇幅绘出的人工智能的轮廓,它就像是一幅低分辨率的全景画,在覆盖广度的同时,必然难以兼顾深度。

正因如此,新一季的抓栏内容将聚焦于人工智能大问题里的一个小目标,也就是机器学习。

在新进展层出不穷的今日,机器学习,它依然占据着人工智能的核心地位,而且迅猛的发展势头,也让现在的机器学习领域充斥着各种听起来狂拽酷炫的新玩意儿。

但正如常言所说,阳光之下再无心事,再炫目的技术,归根结底都是基本模型,还有基本方法在具体领域问题上的组合。

而理解这些基本模型,还有基本方法才是掌握机器学习,也是掌握任何一门学问的要义所在。

既然机器学习领域的文献啊,论著啊已经汗流充栋,那这个专栏和它们的区别又在哪儿呢?在我看来,应该是融会贯通的系统性不少。

关于机器学习的文献,虽然说深入的阐释了不同模型的原理,但是对于他们之间的关联却少了一些清晰的解释,从而使整个内容的组织流于模型。

展览就像一串没能穿成项链的珍珠宝石。

实际上呢,所有的模型就像是龙生九子一样,都是从基本模型出发,根据不同的改进方法衍生出来的。

所以说这个专栏最重要的任务就是帮助你把握不同模型之间的内在关联,让你形成一个观察机器学习的宏观视角。

在此基础上找准进一步理解还有创新的方向。

在内容上积极学习。

这个专栏可以分成三个模块。

第一个模块呢是机器学习的概观,介绍的是机器学习当中超脱于具体模型和方法之上的一些共性问题。

这个模块将从概率的两大派别开始。

众所周知,概率在积极学习当中扮演着核心角色。

而比率学派和贝叶斯学派对于概率迥异的认识,也将机器学习一分为二,发展出两套完全不同的理论体系。

正所谓兼听则明,偏丁则暗理解机器学习时呢,应该看到同一枚硬币的两面,这样才能获得完整的认知。

除此之外,本模块还涵盖了计算学习这样的一些机器学习的理论问题,以及呢关于模型和特征一些实验方面的主题。

第二个模块将讨论频率学派发展出来的机器学习理论,也就是统计学习、统计机器学习。

它的核心是数据,它既从数据中来,利用不同的模型去拟合数据背后的规律,也到数据中去,用拟合出来的规律去推断和预测未知结果。

Yeah,统计学习当中最基础的模型就是线性回归。

几乎所有其他的模型都是从不同角度对线性回归模型做出的扩展和修正。

正因如此,在这个模块当中,我将以线性模型为主线,和你一起浏览它的万千变化观察,从简单的线性回归到复杂深度网络这个发展的历程。

第三个模块呢将讨论贝叶斯学派发展出来的机器学习理论,也就是符号学习。

当然呢它会以概率图模型的形式来出现,和基于数据的统计学习相比,基于关系的涂模型,更多的代表了英国推理的发展方向。

贝叶斯主义它也需要计算待学习对象它的概率分布。

但是他利用的不是海量的具体数据,利用的是什么呢?变量之间的相关关系,每个变量的鲜艳分布,还有大量复杂的积分技巧。

在这个模块里,我将围绕概率图模型当中的表示推断,还有学习这三大问题展开介绍,来认识贝叶斯面纱之下的机器学习。

除开理论之外,在介绍模型的时候呢,我还会穿插一些基于python语言的简单的实例,以加强理解。

这些实例会应用到诸如SK en和pim c这些比较成熟的第三方库,通过调用现成的类来实现不同模型的功能。

我们都知道拍送语言的一大优势就是功能丰富而又强大的第三方库。

如果将他们弃之不用呢,那就先浪费了。

在快速实现的基础上,再进一步钻研核心的代码,这呢也是比较合理的学习的路径。

第一届机器学习,它绝不是简单的了解几个时髦概念,而是要将前沿和基础融会贯通,从中发现贯穿学科发展的脉络。

这个专栏它不是乾坤大挪移这种水平内功心法。

但是如果能够打通,你修炼机器学习的任督二脉,它的价值就实现了。

我已经做好准备。

在接下来的三个月里,和你分享我所理解的机器学习。

那么也请你告诉我,你为什么要学习机器学习?你希望通过这个专栏得到哪些收获呢?与菌共勉。