<rt id="m4md3"></rt>
  • <bdo id="m4md3"><meter id="m4md3"></meter></bdo>
  • <label id="m4md3"></label>
      <center id="m4md3"><optgroup id="m4md3"></optgroup></center>
      產品分類

      當前位置: 首頁 > 工業控制產品 > 自動化控制 > 人工智能

      類型分類:
      科普知識
      數據分類:
      人工智能

      人工智能(58)–多層感知器

      發布日期:2022-10-09 點擊率:41

      人工智能機器學習有關算法內容,請參見公眾號“科技優化生活”之前相關文章。人工智能之機器學習主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點探討一下多層感知器MLP。 

      感知器(Perceptron)是ANN人工神經網絡(請參見人工智能(25))的一個概念,由Frank Rosenblatt于1950s第一次引入。

      單層感知器(Single Layer Perceptron)是最簡單的ANN人工神經網絡。它包含輸入層和輸出層,而輸入層和輸出層是直接相連的。單層感知器僅能處理線性問題,不能處理非線性問題。今天想要跟大家探討的是MLP多層感知器。

      MLP多層感知器是一種前向結構的ANN人工神經網絡, 多層感知器(MLP)能夠處理非線性可分離的問題。

      MLP概念:

      MLP多層感知器(Multi-layerPerceptron)是一種前向結構人工神經網絡ANN,映射一組輸入向量到一組輸出向量。MLP可以被看做是一個有向圖,由多個節點層組成,每一層全連接到下一層。除了輸入節點,每個節點都是一個帶有非線性激活函數的神經元。使用BP反向傳播算法的監督學習方法來訓練MLP。MLP是感知器的推廣,克服了感知器不能對線性不可分數據進行識別的弱點

      相對于單層感知器,MLP多層感知器輸出端從一個變到了多個;輸入端和輸出端之間也不光只有一層,現在又兩層:輸出層和隱藏層。

      基于反向傳播學習的是典型的前饋網絡, 其信息處理方向從輸入層到各隱層再到輸出層,逐層進行。隱層實現對輸入空間的非線性映射,輸出層實現線性分類,非線性映射方式和線性判別函數可以同時學習

      MLP激活函數

      MLP可使用任何形式的激活函數,譬如階梯函數或邏輯乙形函數(logistic sigmoid function),但為了使用反向傳播算法進行有效學習,激活函數必須限制為可微函數。由于具有良好可微性,很多乙形函數,尤其是雙曲正切函數(Hyperbolictangent)及邏輯乙形函數,被采用為激活函數。

      激活函數的作用是將非線性引入神經元的輸出。因為大多數現實世界的數據都是非線性的,希望神經元能夠學習非線性的函數表示,所以這種應用至關重要

      MLP原理:

      前饋神經網絡是最先發明也是最簡單的人工神經網絡。它包含了安排在多個層中的多個神經元。相鄰層的節點有連接或者邊(edge)。所有的連接都配有權重。

      一個前饋神經網絡可以包含三種節點:

      1)輸入節點(Input Nodes):也稱為輸入層,輸入節點從外部世界提供信息,。在輸入節點中,不進行任何的計算,僅向隱藏節點傳遞信息。

      2)隱藏節點(Hidden Nodes):隱藏節點和外部世界沒有直接聯系。這些節點進行計算,并將信息從輸入節點傳遞到輸出節點。隱藏節點也稱為隱藏層。盡管一個前饋神經網絡只有一個輸入層和一個輸出層,但網絡里可以沒有也可以有多個隱藏層。

      3)輸出節點(Output Nodes):輸出節點也稱為輸出層,負責計算,并從網絡向外部世界傳遞信息。

      在前饋網絡中,信息只單向移動——從輸入層開始前向移動,然后通過隱藏層,再到輸出層。在網絡中沒有循環或回路。

      MLP多層感知器就是前饋神經網絡的一個例子,除了一個輸入層和一個輸出層以外,至少包含有一個隱藏層。單層感知器只能學習線性函數,而多層感知器也可以學習非線性函數。

      MLP訓練過程:

      一般采用BP反向傳播算法來訓練MPL多層感知器。采用BP反向傳播算法就像從錯誤中學習。監督者在人工神經網絡犯錯誤時進行糾正。MLP包含多層節點;輸入層,中間隱藏層和輸出層。相鄰層節點的連接都有配有權重。學習的目的是為這些邊緣分配正確的權重。通過輸入向量,這些權重可以決定輸出向量。在監督學習中,訓練集是已標注的。這意味著對于一些給定的輸入,能夠知道期望的輸出(標注)。

      MLP訓練過程大致如下:

      1)所有邊的權重隨機分配;

      2)前向傳播:利用訓練集中所有樣本的輸入特征,作為輸入層,對于所有訓練數據集中的輸入,人工神經網絡都被激活,然后經過前向傳播,得到輸出值。

      3)反向傳播:利用輸出值和樣本值計算總誤差,再利用反向傳播來更新權重。

      4)重復2)~3), 直到輸出誤差低于制定的標準。

      上述過程結束后,就得到了一個學習過的MLP網絡,該網絡被認為是可以接受新輸入的。

      MLP優點:

      1)高度的并行處理;

      2)高度的非線性全局作用;

      3)良好的容錯性;

      4)具有聯想記憶功能;

      5)非常強的自適應、自學習功能。

      MLP缺點:

      1)網絡的隱含節點個數選取非常難;

      2)停止閾值、學習率、動量常數需要采用”trial-and-error”法,極其耗時;

      3)學習速度慢;

      4)容易陷入局部極值;

      5)學習可能會不夠充分。

      MLP應用:

      MLP在80年代的時候曾是相當流行的機器學習方法,擁有廣泛的應用場景,譬如語音識別、圖像識別、機器翻譯等等,但自90年代以來,MLP遇到來自更為簡單的支持向量機的強勁競爭。近來,由于深層學習的成功,MLP又重新得到了關注。

      常被MLP用來進行學習的反向傳播算法,在模式識別的領域中算是標準監督學習算法,并在計算神經學及并行分布式處理領域中,持續成為被研究的課題。MLP已被證明是一種通用的函數近似方法,可以被用來擬合復雜的函數,或解決分類問題。

      結語:

      MLP多層感知器是一種前向結構的ANN人工神經網絡, 它能夠處理非線性可分離的問題,值得深入研究。為了實現MLP多層感知器,會用到BP反向傳播算法。MLP可使用任何形式的激活函數,但為了使用反向傳播算法進行有效學習,激活函數必須限制為可微函數。MLP算法應用范圍較廣,擴展性也強,可應用于語音識別、圖像識別、機器翻譯等領域。

      下一篇: PLC、DCS、FCS三大控

      上一篇: 索爾維全系列Solef?PV

      推薦產品

      更多
      主站蜘蛛池模板: 亚洲伊人tv综合网色| 国产成人综合精品一区| 日韩综合无码一区二区| 色诱久久久久综合网ywww| 色综合久久精品中文字幕首页| 伊人色综合网一区二区三区| 人人狠狠综合88综合久久| 无码专区久久综合久中文字幕| 婷婷综合久久狠狠色99H| 伊人久久大香线蕉综合影院首页| 一本久久a久久精品综合夜夜| 色综合久久98天天综合| 91综合精品网站久久| 国产在线五月综合婷婷| 亚洲AⅤ优女AV综合久久久| AV色综合久久天堂AV色综合在| 久久天天日天天操综合伊人av| 亚洲国产综合AV在线观看| 亚洲欧洲日产国产综合网| 91精品国产91久久综合| 天天综合日日噜噜噜| 另类小说图片综合网| 色天使亚洲综合在线观看| 亚洲国产精品综合久久20| 亚洲一本综合久久| 综合自拍亚洲综合图不卡区| 狠狠色伊人亚洲综合成人| 99综合电影在线视频好看| 久久婷婷五月综合97色直播| 综合一区自拍亚洲综合图区| 色综合热无码热国产| 图片区精品综合自拍| 小说区图片区综合久久88| 色婷婷狠狠久久综合五月| 婷婷激情五月综合| 激情婷婷成人亚洲综合| 狠狠色噜噜狠狠狠狠色综合久AV| 六月丁香激情综合成人| 狠狠色丁香婷婷综合久久来| 婷婷成人丁香五月综合激情| 一本色综合网久久|