登录
原创

机器学习菜鸟的学习笔记(11)

专栏学渣的机器学习之路
发布于 2020-11-16 阅读 4453
  • 程序员
  • 机器学习
原创

写在前面

之前的十期分享大致上简单介绍了机器学习的入门,至少对于我而言这是我的一个入门,当然这些内容只是个简单介绍,里面不乏大量细节需要注意,如果感兴趣十分推荐回头再次深入。

教材来源

之前的分享中出现的一些图片和内容是选自吴恩达在Coursera上的Machine Learning课程,在Coursera上这门课是免费的,随时注册随时看,也不用担心过期。这门课十分适合初学者,哪怕没有机器学习的基础也是可以上手的。

链接如下:

Coursera机器学习

教材评析

在学习的过程中,一开始我其实是相当畏惧其中涉及的数学的,甚至推导和理解都是反复了几遍才下定了决心要看懂它,亲自去尝试之后才觉得不算难。这里并不是我说的风凉话,实际上相比其他机器学习的材料,Cousera上的版本对数学要求很低。一般机器学习涉及了不少基础知识的知识,也就是对大多数人来讲的学习门槛。从线性代数到信息论,从优化到微积分,是不是看起来就是一些让人头大的东西?而这些在Coursera的版本上几乎没有被提到。它使用直觉式的描述来保证广泛的受众群体有信心继续学习。

学习感悟

正如前文所言,Coursera上的机器学习课程十分适合入门,但是未必适合深入理解。所以不畏惧,只要花点时间去理解就会茅塞顿开之感。不过有一些地方我也查询了不少资料,包括百度谷歌和知乎。会有一些大佬把一个看似复杂的东西掰扯清楚,十分有助于理解。我将把其中一些链接分享出来,减少大家查询的时间成本。

线性回归-正规方程

逻辑回归与损失函数的理解

梯度下降公式求导

这几个链接基本上能解决前十期分享的一些困惑,不妨看一看。

机器学习直觉式的理解就是,模型损失函数的优化。首先你要有个模型,接着你要有一个损失函数,我们的目的是优化损失使其最小。模型千千万,算法千千万,其实核心内容就是这么些。这里有一个歪门邪道的办法,如果不理解这个模型甚至都不知道如何着手谷歌,那就去看看它的损失函数和优化方法,多半能找到一些蛛丝马迹。

写在后面

那么入门基础可能就告一段落了,后面的内容就到紧张又刺激的神经网络了,而这个东西可能对初学者来说是真正意义上的一道门槛,也确实不是很好讲清楚,所以在漫长的准备周期的同时我也会分享一些有关推荐算法的分享或者是在实际开发中新手容易遇到的问题。

评论区

Nexus_G
15粉丝

失学青年面临失业

1

0

1

举报