首頁 > 頭條 > 十大機器學習需要了解的演算法

十大機器學習需要了解的演算法

小云云
發布: 2017-12-18 10:38:34
原創
4457 人瀏覽過

毫無疑問,近年來機器學習和人工智慧領域受到了越來越多的關注。隨著大數據成為當下工業界最熱門的技術趨勢,機器學習也藉助大數據在預測和推薦方面取得了驚人的成績。比較有名的機器學習案例包括Netflix根據用戶歷史瀏覽行為給用戶推薦電影,亞馬遜基於用戶的歷史購買行為來推薦書籍。本文主要介紹了淺談機器學習所需的了解的十大演算法,具有一定借鑒價值,需要的朋友可以參考下。

那麼,如果你想要學習機器學習的演算法,該如何入門呢?就我而言,我的入門課程是在哥本哈根留學時選修的人工智慧課程。老師是丹麥科技大學應用數學和電腦專業的全職教授,他的研究方向是邏輯學和人工智慧,主要是用邏輯學的方法來建模。課程包括了理論/核心概念的探討和動手實作兩個部分。我們使用的教材是人工智慧的經典書籍之一:PeterNorvig教授的《人工智慧——一種現代方法》,課程涉及了智慧代理、基於搜尋的求解、對抗搜尋、機率論、多代理系統、社交化人工智慧,以及人工智慧的倫理和未來等主題。在課程的後期,我們三個人也組隊做了程式設計項目,實現了基於搜尋的簡單演算法來解決虛擬環境下的交通運輸任務。

我從課程中學到了非常多的知識,並且打算在這個專題裡繼續深入學習。在過去幾週內,我參與了舊金山地區的多場深度學習、神經網路和資料架構的演講——還有一場眾多知名教授雲集的機器學習會議。最重要的是,我在六月初註冊了Udacity的《機器學習導論》線上課程,並且在幾天前學完了課程內容。在本文中,我想分享幾個我從課程中學到的常用機器學習演算法。

機器學習演算法通常可以被分成三大類-監督式學習,非監督式學習和強化學習。監督式學習主要用於一部分資料集(訓練資料)有某些可以取得的熟悉(標籤),但剩餘的樣本缺失且需要預測的場景​​。非監督式學習主要用於從未標註資料集中挖掘相互之間的隱含關係。強化學習介於兩者之間-每一步預測或行為都或多或少有一些回饋訊息,但是卻沒有準確的標籤或錯誤提示。由於這是入門級的課程,並沒有提及強化學習,但我希望監督式學習和非監督式學習的十個演算法足夠吊起你的胃口了。

監督式學習

1.決策樹:

#決策樹是一種決策支援工具,它使用樹狀圖或樹狀模型來表示決策過程以及後續得到的結果,包括機率事件結果等。請觀察下圖來理解決策樹的結構。

從商業決策的角度來看,決策樹就是盡可能少的是非判斷問題來預測決策正確的機率。這個方法可以幫你用一種結構性的、系統性的方法來得出合理的結論。

2.樸素貝葉斯分類器:

樸素貝葉斯分類器是一類基於貝葉斯理論的簡單的機率分類器,它假設特徵之前是互相獨立的。下圖所示的就是公式-P(A|B)表示後驗機率,P(B|A)是似然值,P(A)是類別的先驗機率,P(B)代表預測器的先驗機率。

現實場景中的一些例子包括:

偵測垃圾電子郵件

將新聞分為科技、政治、體育等類別

判斷一段文字表達正面的情緒還是負面的情緒

用於人臉偵測軟體

3.最小平方迴歸:

#如果你學過統計課程,也許聽過線性迴歸的概念。最小平方迴歸是求線性迴歸的一種方法。你可以把線性迴歸想成是用一條直線擬合若干個點。擬合的方法有許多種,「最小平方」的策略相當於你畫一條直線,然後計算每個點到直線的垂直距離,最後把各個距離求和;最佳擬合的直線就是距離和最小的那一條。

線性指的是用來擬合資料的模型,而最小平方指的是待最佳化的損失函數。

4.邏輯迴歸:

邏輯迴歸模型是一種強大的統計建模方式,它以一個或多個解釋性變數對二值輸出結果建模。它用邏輯史蒂函數估計機率值,以此衡量分類依賴變數和一個或多個獨立的變數之間的關係,這屬於累積的邏輯史蒂分佈。

通常來說,邏輯迴歸模型在現實場景中的應用包括:

信用評分

預測商業活動的成功機率

預測某款產品的收益

預測某一天發生地震的機率

#5.支援向量機:

支援向量機是一種二分類演算法。在N維空間中給定兩類點,支援向量機產生一個(N-1)維的超平面將這些點分成兩類。舉個例子,例如在紙上有兩類線性可分的點。支援向量機會尋找一條直線將這兩類點區分開來,並且與這些點的距離都盡可能遠。

利用支援向量機(結合具體應用場景做了改進)解決的大規模問題包括展示廣告、人體結合部位識別、基於圖像的性別檢查、大規模影像分類等…

6.整合方法:

整合方法是先建構一組分類器,然後用各個分類器帶權重的投票來預測新數據的演算法。最初的整合方法是貝葉斯平均,但最新的演算法包括誤差修正輸出編碼和提升演算法。

那麼整合模型的原理是什麼,以及為什麼它比獨立模型的效果好呢?

它們消除了偏置的影響:例如把民主黨的問捲和共和黨的問卷混合,從中得到的將是一個不倫不類的偏中立的信息。

它們能減少預測的變異數:多個模型聚合後的預測結果比單一模型的預測結果更穩定。在金融界,這被稱為是多樣化——多個股票的混合產品波動總是遠小於單一股票的波動。這也解釋了為何增加訓練數據,模型的效果會變得更好。

它們不容易產生過擬合:如果單一模型不會產生過擬合,那麼將每個模型的預測結果簡單地組合(取平均值、加權平均、邏輯迴歸),沒有理由產生過擬合。

非監督學習

7.聚類演算法:

#聚類演算法的任務是將一群物件聚集成多個群組,分到同一個組(簇)的物體比其它組的物體更相似。

每個聚類演算法都各不相同,這裡列舉了幾種:

基於類心的聚類演算法

#基於連接的聚類演算法

基於密度的聚類演算法

機率型演算法

#降維演算法

神經網路/深度學習

8.主成分分析:

主成分分析屬於統計的方法,過正交變換將一組可能存在相關性的變數轉換為一組線性不相關的變量,轉換後的這組變數叫做主成分。

主成分分析的一些實際應用包括資料壓縮,簡化資料表示,資料視覺化等。值得一提的是需要領域知識來判斷是否適合使用主成分分析演算法。如果資料的雜訊太大(即各個成分的變異數都很大),就不適合使用主成分分析演算法。

9.奇異值分解:

奇異值分解是線性代數中重要的矩陣分解,是矩陣分析中正規矩陣酉對角化的推廣。對於給定的m*n矩陣M,可以將其分解為M=UΣV,其中U和V是m×m階酉矩陣,Σ是半正定m×n階對角矩陣。

主成分分析其實就是一種簡單的奇異值分解演算法。在電腦視覺領域中,第一例人臉辨識演算法使用了主成分分析和奇異值分解將人臉表示為一組「特徵臉(eigenfaces)」的線性組合,經過降維,然後利用簡單的方法匹配候選人臉。儘管現代的方法更加精細,許多技術還是於此很相似。

10.獨立成分分析:

獨立成分分析是一種利用統計原理進行計算來揭示隨機變數、測量值或訊號背後的隱藏因素的方法。獨立成分分析演算法為所觀察到的多變量資料定義了一個生成模型,通常這些變數是大批量的樣本。在這個模型中,資料變數被假定為一些未知的潛在變數的線性混合,而且混合系統也未知。潛變數被假定是非高斯和相互獨立的,它們被稱為所觀察到的資料的獨立分量。

獨立成分分析與主成分分析有關聯,但它是一個更強大的技術。它能夠在這些經典方法失效時仍舊找到資料來源的潛在因素。它的應用包括數位影像、文件資料庫、經濟指標和心理測量。

現在,請運用你所理解的演算法,去創造機器學習應用,改善全世界人們的生活品質。

相關推薦:

微信小程式機器人自動客服功能

php開發微信支付與聊天機器人

PHP機器學習庫php-ml的實例教學

#
相關標籤:
來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板