對于新手來說,人工智能的機器學習算法似乎過于枯燥和復雜。在某種程度上,這是事實。但是在大多數情況下,學員會偶然發現每種算法只有幾頁的描述。這讓學員很難找到時間和精力來處理每個細節。但是,如果真的希望成為機器學習算法的專家,則必須掌握有關頂級機器學習算法的知識,而且沒有其他捷徑可以走。今天將嘗試簡化此任務,解釋10種最常見頂級機器學習算法的核心原理。
1.線性回歸:最初是在統計中發展的,用于研究輸入和輸出數值變量之間的關系,機器學習社區已將其用于基于線性回歸方程式進行預測。
線性回歸的數學表示法是一個線性方程,它結合了一組特定的輸入數據(x),以預測該組輸入值的輸出值(y)。線性方程式將系數分配給每組輸入值,這些值稱為希臘字母Beta(β)表示的系數。
2.Logistic回歸:在Logistic回歸中,我們的目標應該是產生一個離散值1或0。這有助于我們找到一種確定的方案答案。邏輯回歸模型類似于線性回歸來計算輸入變量的加權和,但是它通過特殊的非線性函數,邏輯函數或S形函數運行結果,以產生輸出y。
3.KNN分類:K最近鄰(KNN)分類的目的是將數據點分為不同的類別,以便我們可以基于相似性度量對它們進行分類。
從某種意義上說,KNN可以進行學習,不需要明確的訓練階段,而是開始對由鄰居的多數投票決定的數據點進行分類。
將對象分配給在其k個最近的鄰居中最常見的類。
4.支持向量機(SVM):支持向量機最初用于數據分析。最初,一組訓練示例被輸入到SVM算法中,屬于一個或另一個類別。然后,該算法構建一個模型,該模型開始將新數據分配給它在訓練階段學到的類別之一。
在SVM算法中,創建了一個超平面,該超平面用作類別之間的分界。當SVM算法處理一個新的數據點時,根據它出現的一側,它將被分類為一種類別。
5.決策樹:決策樹基本上是一種樹狀的支持工具,可用于表示原因和結果。由于一個原因可能有多種影響,因此我們將其列出。
6.隨機森林:隨機森林算法旨在解決決策樹的某些局限性。
隨機森林由決策樹組成,決策樹是代表決策過程或統計概率的決策圖。這些多個樹映射到單個樹,稱為分類和回歸模型。
7.人工神經網絡:在我們追求上帝的過程中,人工神經網絡是我們的最高成就之一。如圖所示,我們已經創建了多個相互連接的節點,它們模仿了我們大腦中的神經元。簡而言之,每個神經元通過另一個神經元接收信息,對其進行工作,然后將其作為輸出傳遞給另一個神經元。
8.K均值聚類:在這種機器學習算法中,目標是根據數據點的相似性對其進行標記。因此,我們沒有在算法之前定義聚類,而是算法在前進時找到了這些聚類。
一個簡單的例子是,根據足球運動員的數據,我們將使用K-means聚類并根據其相似性對其進行標記。因此,即使沒有為算法提供預定義的標簽,這些聚類也可以基于前鋒的偏愛來為任意球或成功的鏟球得分。
K均值聚類將有益于交易者,他們認為不同資產之間可能存在表面上看不到的相似之處。
9.樸素貝葉斯定理:現在,如果您還記得基本概率,您會知道貝葉斯定理是通過以下方式制定的:我們假設我們對與前一個事件相關的任何事件都有先驗知識。
例如,要檢查您遲到辦公室的可能性,您可能想知道您在途中是否遇到任何交通擁堵。
但是,樸素貝葉斯分類器算法假設兩個事件是彼此獨立的,因此,這在很大程度上簡化了計算。最初,NaiveBayes最初只考慮了學術練習,但表明它在現實世界中也表現出色。
樸素貝葉斯算法可用于查找不同參數之間的簡單關系而無需完整的數據。
10.遞歸神經網絡(RNN):您知道Siri和GoogleAssistant在其編程中使用RNN嗎?RNN本質上是一種神經網絡,具有連接到每個節點的內存,這使得處理順序數據變得容易,即一個數據單元取決于前一個數據單元。
一種解釋RNN優于常規神經網絡的優勢的方法是,我們應該逐個字符地處理一個單詞。如果單詞是“trading”,則正常的神經網絡節點會在移動到“d”時忘記字符“t”,而循環神經網絡會記住該字符,因為它具有自己的記憶。
因此,這些是頂級的機器學習算法,您將在接下來的時間重點關注這些算法。