大家好,霖霖来为大家解答以上问题。数学手抄报图片大全很简单,数学手抄报图片素材简单又美观很多人还不知道,现在让我们一起来看看吧!
数学手抄报内容:华罗庚的故事
有一次,他跟邻居家的孩子一起出城去玩,他们走着走着;忽然看见路旁有座荒坟,坟旁有许多石人、石马。这立刻引起了华罗庚的好奇心,他非常想去看个究竟。于是他就对邻居家的孩子说:
“那边可能有好玩的,我们过去看看好吗?”
邻居家的孩子回答道:“好吧,但只能呆一会儿,我有点害怕。”
胆大的华罗庚笑着说:“不用怕,世间是没有鬼的。”说完,他首先向荒坟跑去。
两个孩子来到坟前,仔细端详着那些石人、石马,用手摸摸这儿,摸摸那儿,觉得非常有趣。爱动脑筋的华罗庚突然问邻居家的孩子:“这些石人、石马各有多重?”
邻居家的孩子迷惑地望着他说:"我怎么能知道呢?你怎么会问出这样的傻问题,难怪人家都叫你‘罗呆子’。”
华罗庚很不甘心地说道:“能否想出一种办法来计算一下呢?”
邻居家的孩子听到这话大笑起来,说道:“等你将来当了数学家再考虑这个问题吧!不过你要是能当上数学家,恐怕就要日出西山了。”
华罗庚不顾邻家孩子的嘲笑,坚定地说:“以后我一定能想出办法来的。”
当然,计算出这些石人、石马的重量,对于后来果真成为数学家的华罗庚来讲,根本不在话下。
金坛县城东青龙山上有座庙,每年都要在那里举行庙会。少年华罗庚是个喜爱凑热闹的人,凡是有热闹的地方都少不了他。有一年华罗庚也同大人们一起赶庙会,一个热闹场面吸引了他,只见一匹高头大马从青龙山向城里走来,马上坐着头插羽毛、身穿花袍的“菩萨”。每到之处,路上的老百姓纳头便拜,非常虔诚。拜后,他们向“菩萨”身前的小罐里投入钱,就可以问神问卦,求医求子了。
华罗庚感到好笑,他自己却不跪不拜“菩萨”。站在旁边的大人见后很生气,训斥道:
“孩子,你为什么不拜,这菩萨可灵了。”
“菩萨真有那么灵吗?”华罗庚问道。
一个人说道:“那当然,看你小小年纪千万不要冒犯了神灵,否则,你就会倒楣的。”
“菩萨真的万能吗?”这个问题在华罗庚心中盘旋着。他不相信一尊泥菩萨真能救苦救难。
庙会散了,看热闹的老百姓都回家了。而华罗庚却远远地跟踪着“菩萨”。看到“菩萨”进了青龙山庙里,小华罗庚急忙跑过去,趴在门缝向里面看。只见 “菩萨”能动了,他从马上下来,脱去身上的花衣服,又顺手抹去脸上的妆束。门外的华庚惊呆了,原来百姓们顶礼膜拜的“菩萨”竟是一村民装扮的。
华罗庚终于解开了心中的疑团,他将“菩萨”骗人的事告诉了村子里的每个人,人们终于恍然大悟了。从此,人们都对这个孩子刮目相看,再也无人喊他“罗呆子”了。
数学手抄报资料:数学在机器学习中的重要性
Linear Algebra (线性代数) 和 Statistics (统计学)是最重要和不可缺少的。这代表了Machine Learning中最主流的两大类方法的基础。一种是以研究函数和变换为重点的代数方法,比如Dimension reduction,feature extraction,Kernel等,一种是以研究统计模型和样本分布为重点的统计方法,比如Graphical model, Information theoretical models等。它们侧重虽有不同,但是常常是共同使用的,对于代数方法,往往需要统计上的解释,对于统计模型,其具体计算则需要代数的帮助。 以代数和统计为出发点,继续往深处走,我们会发现需要更多的数学。
Calculus (微积分),只是数学分析体系的基础。其基础性作用不言而喻。Learning研究的大部分问题是在连续的度量空间进行的,无论代数还是统计,在研究优化问题的时候,对一个映射的微分或者梯度的分析总是不可避免。而在统计学中,Marginalization和积分更是密不可分——不过,以解析形式把积分导出来的情况则不多见。
Partial Differential Equation (偏微分方程),这主要用于描述动态过程,或者仿动态过程。这个学科在Vision中用得比Learning多,主要用于描述连续场的运动或者扩散过程。比如Level set, Optical flow都是这方面的典型例子。
Functional Analysis (泛函分析), 通俗地,可以理解为微积分从有限维空间到无限维空间的拓展——当然了,它实际上远不止于此。在这个地方,函数以及其所作用的对象之间存在的对偶关系扮演了非常重要的角色。Learning发展至今,也在向无限维延伸——从研究有限维向量的问题到以无限维的函数为研究对象。Kernel Learning 和 Gaussian Process 是其中典型的例子——其中的核心概念都是Kernel。很多做Learning的人把Kernel简单理解为Kernel trick的运用,这就把kernel的意义严重弱化了。在泛函里面,Kernel (Inner Product) 是建立整个博大的代数体系的根本,从metric, transform到spectrum都根源于此。
Measure Theory (测度理论),这是和实分析关系非常密切的学科。但是测度理论并不限于此。从某种意义上说,Real Analysis可以从Lebesgue Measure(勒贝格测度)推演,不过其实还有很多别的测度体系——概率本身就是一种测度。测度理论对于Learning的意义是根本的,现代统计学整个就是建立在测度理论的基础之上——虽然初级的概率论教科书一般不这样引入。
在看一些统计方面的文章的时候,你可能会发现,它们会把统计的公式改用测度来表达,这样做有两个好处:所有的推导和结论不用分别给连续分布和离散分布各自写一遍了,这两种东西都可以用同一的`测度形式表达:连续分布的积分基于Lebesgue测度,离散分布的求和基于计数测度,而且还能推广到那种既不连续又不离散的分布中去(这种东西不是数学家的游戏,而是已经在实用的东西,在Dirchlet Process或者Pitman-Yor Process里面会经常看到)。
即使是连续积分,如果不是在欧氏空间进行,而是在更一般的拓扑空间(比如微分流形或者变换群),那么传统的黎曼积分(就是大学一年级在微积分课学的那种)就不work了,你可能需要它们的一些推广,比如Haar Measure或者Lebesgue-Stieltjes积分。
Topology(拓扑学),这是学术中很基础的学科。它一般不直接提供方法,但是它的很多概念和定理是其它数学分支的基石。看很多别的数学的时候,你会经常接触这样一些概念:Open set / Closed set,set basis,Hausdauf, continuous function,metric space, Cauchy sequence, neighborhood, compactness, connectivity。很多这些也许在大学一年级就学习过一些,当时是基于极限的概念获得的。如果,看过拓扑学之后,对这些概念的认识会有根本性的拓展。
比如,连续函数,当时是由epison法定义的,就是无论取多小的正数epsilon,都存在xxx,使得xxx。这是需要一种metric去度量距离的,在general topology里面,对于连续函数的定义连坐标和距离都不需要——如果一个映射使得开集的原像是开集,它就是连续的——至于开集是基于集合论定义的,不是通常的开区间的意思。这只是最简单的例子。当然,我们研究learning也许不需要深究这些数学概念背后的公理体系,但是,打破原来定义的概念的局限在很多问题上是必须的——尤其是当你研究的东西它不是在欧氏空间里面的时候——正交矩阵,变换群,流形,概率分布的空间,都属于此。
Differential Manifold (微分流形), 通俗地说它研究的是平滑的曲面。一个直接的印象是它是不是可以用来fitting一个surface什么的——当然这算是一种应用,但是这是非常初步的。本质上说,微分流形研究的是平滑的拓扑结构。一个空间构成微分流形的基本要素是局部平滑:从拓扑学来理解,就是它的任意局部都同胚于欧氏空间,从解析的角度来看,就是相容的局部坐标系统。当然,在全局上,它不要求和欧氏空间同胚。它除了可以用于刻画集合上的平滑曲面外,更重要的意义在于,它可以用于研究很多重要的集合。
一个n-维线性空间的全部k-维子空间(k < n)就构成了一个微分流形——著名的Grassman Manifold。所有的标准正交阵也构成一个流形。一个变换群作用于一个空间形成的轨迹(Orbit) 也是通常会形成流形。在流形上,各种的分析方法,比如映射,微分,积分都被移植过来了。前一两年在Learning里面火了好长时间的Manifold Learning其实只是研究了这个分支的其中一个概念的应用: embedding。其实,它还有很多可以发掘的空间。
Lie Group Theory (李群论),一般意义的群论在Learning中被运用的不是很多,群论在Learning中用得较多的是它的一个重要方向Lie group。定义在平滑流行上的群,并且其群运算是平滑的话,那么这就叫李群。因为Learning和编码不同,更多关注的是连续空间,因为Lie group在各种群中对于Learning特别重要。各种子空间,线性变换,非奇异矩阵都基于通常意义的矩阵乘法构成李群。在李群中的映射,变换,度量,划分等等都对于Learning中代数方法的研究有重要指导意义。
本文到此结束,希望对大家有所帮助。
标签: 数学手抄报图片素材简单又美观
免责声明:本文由用户上传,如有侵权请联系删除!