对于新手来说,人工智能的机器学习算法似乎过于枯燥和复杂。在某种程度上,这是事实。但是在大多数情况下,学员会偶然发现每种算法只有几页的描述。这让学员很难找到时间和精力来处理每个细节。但是,如果真的希望成为机器学习算法的专家,则必须掌握有关顶级机器学习算法的知识,而且没有其他捷径可以走。今天将尝试简化此任务,解释10种最常见顶级机器学习算法的核心原理。
1.线性回归:最初是在统计中发展的,用于研究输入和输出数值变量之间的关系,机器学习社区已将其用于基于线性回归方程式进行预测。
线性回归的数学表示法是一个线性方程,它结合了一组特定的输入数据(x),以预测该组输入值的输出值(y)。线性方程式将系数分配给每组输入值,这些值称为希腊字母Beta(β)表示的系数。
2.Logistic回归:在Logistic回归中,我们的目标应该是产生一个离散值1或0。这有助于我们找到一种确定的方案答案。逻辑回归模型类似于线性回归来计算输入变量的加权和,但是它通过特殊的非线性函数,逻辑函数或S形函数运行结果,以产生输出y。
3.KNN分类:K最近邻(KNN)分类的目的是将数据点分为不同的类别,以便我们可以基于相似性度量对它们进行分类。
从某种意义上说,KNN可以进行学习,不需要明确的训练阶段,而是开始对由邻居的多数投票决定的数据点进行分类。
将对象分配给在其k个最近的邻居中最常见的类。
4.支持向量机(SVM):支持向量机最初用于数据分析。最初,一组训练示例被输入到SVM算法中,属于一个或另一个类别。然后,该算法构建一个模型,该模型开始将新数据分配给它在训练阶段学到的类别之一。
在SVM算法中,创建了一个超平面,该超平面用作类别之间的分界。当SVM算法处理一个新的数据点时,根据它出现的一侧,它将被分类为一种类别。
5.决策树:决策树基本上是一种树状的支持工具,可用于表示原因和结果。由于一个原因可能有多种影响,因此我们将其列出。
6.随机森林:随机森林算法旨在解决决策树的某些局限性。
随机森林由决策树组成,决策树是代表决策过程或统计概率的决策图。这些多个树映射到单个树,称为分类和回归模型。
7.人工神经网络:在我们追求上帝的过程中,人工神经网络是我们的最高成就之一。如图所示,我们已经创建了多个相互连接的节点,它们模仿了我们大脑中的神经元。简而言之,每个神经元通过另一个神经元接收信息,对其进行工作,然后将其作为输出传递给另一个神经元。
8.K均值聚类:在这种机器学习算法中,目标是根据数据点的相似性对其进行标记。因此,我们没有在算法之前定义聚类,而是算法在前进时找到了这些聚类。
一个简单的例子是,根据足球运动员的数据,我们将使用K-means聚类并根据其相似性对其进行标记。因此,即使没有为算法提供预定义的标签,这些聚类也可以基于前锋的偏爱来为任意球或成功的铲球得分。
K均值聚类将有益于交易者,他们认为不同资产之间可能存在表面上看不到的相似之处。
9.朴素贝叶斯定理:现在,如果您还记得基本概率,您会知道贝叶斯定理是通过以下方式制定的:我们假设我们对与前一个事件相关的任何事件都有先验知识。
例如,要检查您迟到办公室的可能性,您可能想知道您在途中是否遇到任何交通拥堵。
但是,朴素贝叶斯分类器算法假设两个事件是彼此独立的,因此,这在很大程度上简化了计算。最初,NaiveBayes最初只考虑了学术练习,但表明它在现实世界中也表现出色。
朴素贝叶斯算法可用于查找不同参数之间的简单关系而无需完整的数据。
10.递归神经网络(RNN):您知道Siri和GoogleAssistant在其编程中使用RNN吗?RNN本质上是一种神经网络,具有连接到每个节点的内存,这使得处理顺序数据变得容易,即一个数据单元取决于前一个数据单元。
一种解释RNN优于常规神经网络的优势的方法是,我们应该逐个字符地处理一个单词。如果单词是“trading”,则正常的神经网络节点会在移动到“d”时忘记字符“t”,而循环神经网络会记住该字符,因为它具有自己的记忆。
因此,这些是顶级的机器学习算法,您将在接下来的时间重点关注这些算法。