tft每日頭條

 > 圖文

 > 深度學習的流程及标準

深度學習的流程及标準

圖文 更新时间:2024-11-20 03:33:34

深度學習的流程及标準?摘要: 本文着重介紹了深度學習的一些關鍵術語,其中包括生物神經元,多層感知器(MLP),前饋神經網絡和遞歸神經網絡對于初學者來說,掌握它們可以防止在學習請教時的尴尬~,我來為大家講解一下關于深度學習的流程及标準?跟着小編一起來看一看吧!

深度學習的流程及标準(深度學習的關鍵術語)1

深度學習的流程及标準

摘要: 本文着重介紹了深度學習的一些關鍵術語,其中包括生物神經元,多層感知器(MLP),前饋神經網絡和遞歸神經網絡。對于初學者來說,掌握它們可以防止在學習請教時的尴尬~

深度學習已經成為編程界的一股潮流,因為其在許多領域取得了令人難以置信的成功,使其在研究和工業領域廣受歡迎。那麼到底什麼是深度學習呢?深度學習是應用深層神經網絡技術:即利用具有多個隐藏層的神經網絡結構來解決問題的過程。深度學習是一個過程,如數據挖掘,它采用深度神經網絡架構,它是特定類型的機器學習算法。

深度學習最近取得了令人吃驚的成就。但,至少在我看來,謹記一些事情是很重要的:

1.深度學習不是萬能的——它不是一個解決所有問題的萬能的解決方案。

2.它不是傳說中的王牌算法——深度學習不會取代所有其他機器學習算法和數據科學技術、或者至少它還沒有證明如此。

3.有期望是必要的——盡管最近它在所有類型的分類問題上取得了很大進展,特别是計算機視覺和自然語言處理以及強化學習和其他領域,當代深度學習并沒有擴展到處理非常複雜的問題,如“解決世界和平”。

4.深度學習和人工智能并不是同義詞。

5.深度學習可以通過附加的過程和工具來幫助解決問題,從而為數據科學提供了極大的幫助。當從這個角度觀察時,深度學習對數據科學領域是非常有價值的補充。

如上圖所示,深度學習其本質就是數據挖掘,因為(深度)神經網絡是機器學習(過程與體系結構)。同樣可以看到的事實是,深度神經網絡與當代人工智能有很大關系,至少兩者可以交織在一起(然而,它們不是同一事物,人工智能是具有許多其他算法以及超越神經網絡的技術)。還需要注意的是深度學習/深度神經網絡與計算機視覺、自然語言處理和生成模型之間的聯系,鑒于近年來在這些領域取得的巨大進步,深度學習和神經網絡技術的聯系是微妙的,但這種聯系具有特别重要的意義。

那麼,讓我們來看看一些與深度學習相關的術語。

1. 深度學習:

如上所述,深度學習是應用深度神經網絡技術解決問題的過程。深度神經網絡是具有最小隐藏層的神經網絡(見下文)。像數據挖掘一樣,深度學習是指一個過程,它采用深層神經網絡體系結構,其是特定類型的機器學習算法。

2. 人工神經網絡(ANN):

機器學習架構最初是由深度學習的腦神經(尤其是神經元)所啟發的。實際上,單獨的人工神經網絡(非深度變種)已經存在了很長時間,并且曆史上能夠解決某些類型的問題。然而,相對最近,神經網絡架構被設計出來,其中包括隐藏的神經元層(不僅僅是輸入層和輸出層),而且這種複雜程度增加了深度學習的能力,并提供了一套更強大的問題解決工具。

人工神經網絡在結構上與深度神經網絡有很大的不同,因此沒有明确的神經網絡定義。所有人工神經網絡通常引用的特征是擁有自适應加權集合,以及将輸入的非線性函數逼近神經元的能力。

3. 生物神經元

通常,生物神經網絡和人工神經網絡之間存在明确的聯系。流行的出版物宣傳了人工神經網絡在某種程度上是人類(或其他生物)大腦中發生的确切複本,但這顯然是不準确的。充其量,早期的人工神經網絡受到生物學的啟發。兩者之間的抽象關系不比原子與太陽系的組成和功能之間的抽象比較明确。

也就是說,如果僅僅了解人工神經網絡的靈感,它确實能讓我們看到生物神經元如何在很高的水平上工作。

我們感興趣的生物神經元的主要組成部分是:

·核:保存遺傳信息(即,DNA)。

·細胞主體:處理輸入激活,并将其轉換成輸出激活。

·樹突:從其他神經元接受激活。

·軸突:傳遞激活到其他神經元。

·軸突末梢:與相鄰的樹突形成神經元之間的突觸。

被稱為神經遞質的化學物質然後擴散穿過軸突末端和鄰近的樹突之間的突觸間隙,構成神經傳遞。神經元的基本操作是激活神經元,處理,然後通過其軸突末端再傳播出軸突,穿過突觸間隙并到達許多接受神經元的樹突,重複這個過程。

4. 感知器

感知器是一個簡單的線性二元分類器。感知器獲取輸入和相關權重(表示相對輸入重要性),并将它們組合以産生輸出,然後用于分類。感知器已經存在了很長時間,早期的實現可以追溯到20世紀50年代,其中第一個涉及早期的ANN實現。

5. 多層感知機(MLP)

多層感知機(MLP)是幾個完全相鄰連接的感知機層的實現,形成一個簡單的前饋神經網絡(見下文)。這種多層感知機具有單感知機不具備的非線性激活功能的優勢。

6. 前饋神經網絡

前饋神經網絡是神經網絡結構的最簡單形式,其中的連接是非周期性的。原始的人工神經網絡,前饋網絡中的信息從輸入節點(隐藏層)向輸出節點單向前進,沒有周期存在。前饋網絡不同于後來的經常性網絡架構(RNN)(見下文),其中連接形成有向循環。

7. 經常性神經網絡(RNN)

與上述前饋神經網絡相比,遞歸神經網絡的連接形成有向循環。這種雙向流動允許使用内部的時間狀态表示,這反過來又允許序列處理,并且提供了識别語音和手寫的能力。

8. 激活函數

在神經網絡中,激活函數通過組合網絡的加權輸入産生輸出決策邊界。激活函數的範圍是從線性到sigmoid(邏輯)再到雙曲線(相切)和超越。為了采用反向傳播(見下文),網絡中必須利用可區分的激活函數。

9. 反向傳播

我曾經遇到過的最簡潔、最基本的反向傳播定義是數據科學家Mikio L. Braun 對Quora給出了以下答案:

BP隻是個别錯誤的漸變下降,你可以将神經網絡的預測與期望的輸出進行比較,然後根據神經網絡的權重計算誤差的梯度。這将給你一個參數權重空間的方向,在這個空間中誤差會變小。

10. 成本函數

在訓練神經網絡時,必須評估網絡輸出的正确性。由于我們知道訓練數據的正确輸出,所以可以比較訓練的輸出。成本函數衡量實際産出與訓練産出之間的差異。實際産出和預期産出之間的零成本意味着網絡一直在盡可能地進行訓練,這顯然是理想的。

那麼,通過什麼機制來調整成本函數,并将其最小化呢?

11. 梯度下降

梯度下降是一種用于尋找局部函數最小值的優化算法。盡管不能保證全局最小值,但梯度下降法對于精确求解或者難以求解的函數特别有用,例如将導數設置為零并求解。

如上所述,在神經網絡的情況下,随機梯度下降用于對網絡參數做出明智的調整,目的是最小化成本函數,從而使網絡的實際輸出更接近于叠代地達到預期的輸出。這種叠代最小化成本過程采用的是微積分,即微分。在訓練步驟之後,網絡權重根據成本函數的梯度和網絡的當前權重來接收更新,以便下一個訓練步驟的結果可能更接近正确(通過較小的成本函數測量)。反向傳播(錯誤的後向傳播)是用于将這些更新分發給網絡的方法。

12. 消失漸變問題

反向傳播使用鍊式規則來計算梯度,其中朝向n層神經網絡的“前”(輸入)的層将其小數更新的梯度值乘以n倍,然後将該穩定值用作更新。這意味着梯度将呈指數形式下降,這是一個n值較大的問題,而前面的層次需要越來越多的時間進行有效訓練。

13. 卷積神經網絡

通常與計算機視覺和圖像識别相關聯,卷積神經網絡(CNN)采用卷積的數學概念來模拟生物視覺皮層的神經連接網格。

首先,如Denny Britz所描述的那樣,卷積可以被認為是圖像矩陣表示上的滑動窗口(參見下文)。

這個概念在神經網絡結構中的實現導緻神經元集合專用于處理圖像部分,至少在計算機視覺中被使用時。在其他領域(如自然語言處理)中使用時,也可以使用相同的方法,因為輸入(單詞,句子等)可以排列在矩陣中并以類似的方式處理。

14. 長短期記憶網絡(LSTM)

長短期記憶網絡(LSTM)是一種經常性神經網絡,它經過優化,可以從相關事件之間的時間相關數據中學習,這些數據可能具有未定義或未知的時間長度。他們特殊的架構允許持久性,給ANN帶來“記憶”。LSTM網絡最近在手寫識别和自動語音識别方面取得了突破。

這隻是深度學習術語的一小部分,并且随着你對機器學習研究了解,許多其他的概念正在等待你的探索。

本文由阿裡雲雲栖社區組織翻譯。

文章原标題《deep-learning-key-terms-explained》

作者:Matthew Mayo

譯者:虎說八道,審校。

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关圖文资讯推荐

热门圖文资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved