0%

《数学之美》

书名:《数学之美》
出版社:人民邮电出版社
背景介绍:在公司的内网找到的电子版,当时粗略的翻了翻感觉还挺有意思的,所以就买了纸质版回来看了看,看完之后叹息看晚了,要是大二大三看的话,感觉我就跑去做算法了。

本书分了很多章,但是基本上是以场景与算法模型分章节,有的章节在讲算法的应用,有的在讲算法背后的历史故事,而我可能还是对算法的数学模型感兴趣一点,所以我就不按书里的顺序整理了,我打算按照数学知识的内容来分类整理我感兴趣的部分。

Markov Chain and Hidden Markov Chain(马尔科夫链与隐式马尔科夫链)

算是随机过程中最简单的内容吧,简单来说就是基于这样一个假设,对于一个离散的过程,下一个时间点的状态的可能性,当前仅当与当前时间点的状态有关。由这样一个最为朴素的假设发展处的模型,有惊人的泛用性与准确性。从数学的视角,关注在状态转移矩阵,特征值,稳态,这些概念上,从落地应用的视角,关注在迭代,稳态,模型训练,这些概念上。

Bayesian network(贝叶斯网络)

如果把马尔科夫过程的时间这个尺度抽离出来,那么马尔科夫过程可以在图论上被抽象为一个单链,而贝叶斯网络把单链拓展到了有向无环图。

Good-Turing Estimate(古德-图灵估计)

应该是高等概率论的东西?大致上是为了解决这样一个问题:我在一个学校门口观察,当我看五个学生走出校门,发现这五个学生都是女生,我有多大的概率来判断,这个学校是一个女校,只有女学生呢?单从概率的角度,我们当然可以用切比雪夫不等式来回答上述问题,但是进一步,那此时男生在这个学校的比例的期望是多少呢?从生活经验中,我们当然知道此时这个学校没有男生的概率应该不是0才对,但是在一些别的领域,我们就丧失了生活经验,例如本书里是为了解决NLP(自热语言处理)中的遇到的样本不足时的概率估计问题,解决的办法通俗来讲是添加一个小的权重概率来假定未看到的情况,而不同的应用场景应该都有相适应的权重定义方式。

SVD(奇异值分解)

高等代数里一个很小的东西,我没记错的话考研的时候上交还出了这个题,这本书里又看到了,感觉很亲切了,并且感叹,原来这个东西是这样被用到的。奇异值分解,本质是对矩阵分解,降低矩阵的数据量,提取矩阵的有效特征。本书涉及到的部分主要是为了讲如何存储一个超大的矩阵信息。

Information Entropy(信息熵)

信息论的基石,我第一次接触好像还是在近代密码学里。信息论很出色的一点,就是把信息用数学的方式进行了描述,其中的核心思想是:“一个信息的含量,在于消除了多少不确定性。”具体的数学问题在这里不做推演。在这里只是想强调一下这东西的重要性,尤其是在NLP中,发挥了很大的作用。

还有一些数学上的点有在书中被提到:高维度下的余弦定理,图论,密码学,布尔代数…

以及一堆算法:EM(期望最大算法),Viterbi(维特比算法),椭圆曲线加密,Bloom Filter(布隆过滤器)…

总的来说还是挺有意思的书,可能对我来说就是属于:原来数学是被这样被现代世界使用的,这样的感触。