人工智能的数学基础(AI 基础)
人工智能的基础是数学,这一点已经是确定无疑的共识了。
但“数学”二字所包含的内涵与外延太广,到底其中的哪些内容和当前的人工智能技术直接相关呢?
今天我们就来看看入门人工智能所需要的数学知识。
人工智能必备高等数学知识点清单
AI 技术岗所要求的高等数学知识,大致可以分为四个方面: 微积分 、 概率统计 、 线性代数 ,和 最优化理论 。
每个分领域都至少是一本书(也可以是一摞书)。 我们在这里暂且抽取和机器学习、深度学习相关的最基础部分,给大家做一下聚焦:
【微积分】
-
基础概念(极限、可微与可导、全导数与偏导数) : 只要学微积分,就必须要明白的概念,否则后面什么都无法继续学习。
-
函数求导 : 求导是梯度的基础,而梯度是 AI 算法的基础,因此求导非常重要! 必须要搞清楚概念,并学会常见函数的导函数求法。
-
链式法则 : 符合函数求导法则,反向传播算法的理论基础。
-
泰勒公式和费马引理 : 这两者也是梯度下降法的基础组成,重要程度与求导相同。
-
微分方程及其求解 : 很重要,是部分机器学习模型求解的必备知识。
-
拉格朗日乘子法和对偶学习 : 理解 SVM/SVR 的理论基础。 SVM/SVR 作为机器学习模型的常用“中坚力量”,其重要程度不言而喻。
【概率统计】
-
简单统计量(个数、最大值、最小值、中位数、均值、方差)及其物理意义 : 概率统计的概念基础。
-
随机和抽样 : 随机——概率统计成立的基础; 抽样——统计的方法。
-
频率和概率,以及概率的基本概念 : 搞清什么是概率,它和频率的区别与联系。
-
几种 常见的概率分布及公式 (平均分布、二项分布、正态分布……)
-
参数估计 : 只知道大致的分布,不知道具体的参数怎么办? 没关系,我们可以根据估计一下。 其中最重要的是 极大似然估计 。
-
中心极限定理 : 如果不知道某事物的概率分布该怎么办?没关系,就当它符合正态分布好了。 可是为什么能这样近似呢?因为我们有中心极限定理呀。
-
假设验证 : 到底假设得对不对呢? 我们根据样本来验证一下。
-
贝叶斯公式 : 太重要啦! 是它使得我们可以根据先验概率来预测后验概率。 而 朴素贝叶斯 公式自己就是朴素贝叶斯模型本身啊。
-
回归分析 : 想想那么多名字里有“回归”的模型吧!
-
状态转移网络 : 概率链、隐马尔可夫模型和条件随机场。
【线性代数】
-
向量与标量 : 用向量和标量表示事物特征的差别是什么?
-
向量空间,向量性质及向量的几何意义 : 所谓高维低维指的是什么? 同一个向量能否存在于不同的向量空间里? 向量的移动、转向和拉伸是如何做到的?
-
线性函数 : 什么是线性函数,它具备怎样的性质?
-
矩阵和矩阵运算 : 矩阵出现的目的是什么? 掌握矩阵的基础运算(与常数/向量/矩阵的加法和乘法)。
-
特殊矩阵(方阵、实对称矩阵、(半)正定/负定矩阵等)及其性质 : 根据不同的性质,我们可以划分出哪些特殊矩阵,它们都有哪些特殊性质?
-
特征值和特征向量 : 定义、性质,以及特征值求解。
-
用矩阵求解微分方程 。
-
正交 : 什么是正交? 函数的正交,向量的正交,和超平面的正交分别是如何形式化表达的,又具备怎样的物理意义。
【最优化方法】
-
凸函数与极值 : 搞清楚什么是凸函数,凸函数与极值的关系,极值和最值的关系等。
注意 : 国内不同教科书对于“凸”的定义存在不一致的情况,有些书上把其他书上说的“凸函数”叫做“凹函数”。
直观而言,我们一向说的“凸函数”是那类一维自变量情况下看起来像个“U”,二维自变量下像个碗的那种函数。
-
最优化 : 什么是最优化问题? 什么是最优化方法? 无限制条件和有限制条件下的最优化方法基本原理分别是什么?
-
梯度下降法 : 最基础最常用的最优化方法,以及其他若干最优化方法的基础,务必全面掌握。
-
其他最优化算法 : 了解其他一些常用最优化方法,例如,牛顿法、共轭梯度法、线性搜索算法、模拟退火算法、遗传算法等。
人工智能背后的数学大神们
上述知识点,看起来好像有点吓人哦,不像是“我能记得住”的样子。
有没有办法能够轻松愉快不累且高效地掌握人工智能(机器学习/深度学习)领域要用到的数学知识呢?
这里推荐一种笔者在探索中逐步发现的,简单直接又有些趣味的方法:以数学家为主线学习高等数学知识 —— 也就是,“以人为轴”学AI数学。
我们先来看看下面这些画像吧:
你能认出几个?
他们分别是(从左到右从上到下依次):牛顿、高斯、贝叶斯、费马、泰勒、拉格朗日、拉普拉斯、傅立叶,和伯努利。
说实话,现在全球数以千万计的 AI 技术人员真应该把这些大佬供起来,说咱们的饭碗都是他们赏的也不为过。
-
牛顿 大神发明了微积分;
-
辅之以 费马引理 、 泰勒公式 ,奠定了如今一切 AI 最优化算法工程实现的理论基础。
-
拉格朗日 乘子法为限定条件下多元函数的最优化问题提供了解法。
-
数学王子 高斯 在概率论和线性代数领域的非凡贡献不胜枚举,仅仅高斯分布一项就堪称概率论之抗鼎模型。
-
贝叶斯 让我们可以用既往经验预测未来。
-
伯努利 家族不仅在概率论领域贡献颇丰,就连他家二弟卖给 洛必达 的“洛必达法则”亦是求解具有不定型的极限的不二法门。
-
拉普拉斯 算子于微积分和线性代数而言都是非常重要的基石。
-
傅立叶 变换在时域信号和频域信号之间的桥梁作用成就了整个语音领域。
当然,还有下面这位:
-
莱布尼茨 与牛顿分别独立发明了微积分,他提出的符号系统一直沿用至今。 他同样是西方二进制算数体系的提出者和线性代数的重要奠基人。
当然,无论微积分、概率统计还是线性代数,都不是在一日之内形成的学科,都经历了数百年乃至上千年大量人类顶级头脑的思考和探索,对其做出贡献的数学家灿若繁星。
对照我们亟待掌握的知识点,以这些理论的提出者为基点,沿着数学史学习之,并同步了解数学发展的进程。 顺便还可以以大神们之间的交往和恩怨等八卦作为润滑剂。
如此一路学来,既多了许多趣味,又能追本溯源,了解到这些理论提出的现实背景(例如: 物理学的发展及其对数学工具的需求)。
在学理论的同时了解这一理论最初的作用域和当时解决的实际问题,对于我们理解其中各类概念的物理意义有着极大的帮助。
“众智汇” 愿景
尽职尽才,允公允能 —— 本社群不定期举行线上分享,组织群友分享知识、经验、资源,以达到 让我们每个人的职业生涯得到最大程度的发展 的目的 。
欢迎扫面下列二维码关注“悦思悦读”公众微信号