亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

BP神經(jīng)網(wǎng)絡的概念

新機器視覺 ? 來源:新機器視覺 ? 2020-09-24 11:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近學習BP神經(jīng)網(wǎng)絡,網(wǎng)上文章比較參差不齊,對于初學者還是很困惑,本文做一下筆記和總結,方便以后閱讀學習。

一、BP神經(jīng)網(wǎng)絡的概念

BP神經(jīng)網(wǎng)絡是一種多層的前饋神經(jīng)網(wǎng)絡,其主要的特點是:信號是前向傳播的,而誤差是反向傳播的。具體來說,對于如下的只含一個隱層的神經(jīng)網(wǎng)絡模型:輸入向量應為n個特征

BP神經(jīng)網(wǎng)絡的過程主要分為兩個階段,第一階段是信號的前向傳播,從輸入層經(jīng)過隱含層,最后到達輸出層;第二階段是誤差的反向傳播,從輸出層到隱含層,最后到輸入層,依次調(diào)節(jié)隱含層到輸出層的權重和偏置,輸入層到隱含層的權重和偏置。

1. 神經(jīng)元:神經(jīng)元,或稱神經(jīng)單元/神經(jīng)節(jié)點,是神經(jīng)網(wǎng)絡基本的計算單元,其計算函數(shù)稱為激活函數(shù)(activation function),用于在神經(jīng)網(wǎng)絡中引入非線性因素,可選擇的激活函數(shù)有:Sigmoid函數(shù)、雙曲正切函數(shù)(tanh)、ReLu函數(shù)(Rectified Linear Units),softmax等。

1.1 Sigmoid函數(shù),也就是logistic函數(shù),對于任意輸入,它的輸出范圍都是(0,1)。公式如下:

Sigmoid的函數(shù)圖如上所示,很像平滑版的階躍函數(shù)。但是,sigmoid 有很多好處,例如:

(1)它是非線性的

(2)不同于二值化輸出,sigmoid 可以輸出0到 1 之間的任意值。對,跟你猜的一樣,這可以用來表示概率值。

( 3)與 2 相關,sigmoid 的輸出值在一個范圍內(nèi),這意味著它不會輸出無窮大的數(shù)。但是,sigmoid 激活函數(shù)并不完美: 梯度消失。如前面的圖片所示,當輸入值 z 趨近負無窮時,sigmoid 函數(shù)的輸出幾乎為0 . 相反,當輸入 z 趨近正無窮時,輸出值幾乎為 1 . 那么這意味著什么?在這兩個極端情況下,對應的梯度很小,甚至消失了。梯度消失在深度學習中是一個十分重要的問題,我們在深度網(wǎng)絡中加了很多層這樣的非線性激活函數(shù),這樣的話,即使第一層的參數(shù)有很大的變化,也不會對輸出有太大的影響。換句話講,就是網(wǎng)絡不再學習了,通常訓練模型的過程會變得越來越慢,尤其是使用梯度下降算法時。

1.2 Tanh函數(shù)

Tanh 或雙曲正切是另一個深度神經(jīng)網(wǎng)絡中常用的激活函數(shù)。類似于 sigmoid 函數(shù),它也將輸入轉化到良好的輸出范圍內(nèi)。具體點說就是對于任意輸入,tanh 將會產(chǎn)生一個介于-1 與 1 之間的值。

Tanh函數(shù)圖

如前面提及的,tanh 激活函數(shù)有點像 sigmoid 函數(shù)。非線性且輸出在某一范圍,此處為(-1, 1)。不必意外,它也有跟 sigmoid 一樣的缺點。從數(shù)學表達式就可以看出來,它也有梯度消失的問題,以及也需要進行開銷巨大的指數(shù)運算。

1.3

ReLU

終于講到了 Relu,人們起初并不覺得它的效果會好過 sigmoid 和 tanh。但是,實戰(zhàn)中它確實做到了。事實上,cs231n 課程甚至指出,應該默認使用 Relu 函數(shù)。

ReLU 從數(shù)學表達式來看,運算十分高效。對于某一輸入,當它小于0時,輸出為0,否則不變。下面是 ReLU 的函數(shù)表達式。Relu(z) = max(0,z)

那么你可能會問,「它是線性函數(shù)吧?為何我們說它是非線性函數(shù)?」

在線代中,線性函數(shù)就是兩個向量空間進行向量加和標量乘的映射。

給定上面的定義,我們知道 max(0, x)是一個分段線性函數(shù)。之所以說是分段線性,是因為它在(?∞, 0]或[0,+∞)上符合線性函數(shù)的定義。但是在整個定義域上并不滿足線性函數(shù)的定義。例如f(?1)+ f(1)≠f (0)

所以 Relu 就是一個非線性激活函數(shù)且有良好的數(shù)學性質,并且比 sigmoid 和 tanh 都運算得快。除此以外,Relu 還因避免了梯度消失問題而聞名。然而,ReLU 有一個致命缺點,叫「ReLU 壞死」。ReLu 壞死是指網(wǎng)絡中的神經(jīng)元由于無法在正向傳播中起作用而永久死亡的現(xiàn)象。

更確切地說,當神經(jīng)元在向前傳遞中激活函數(shù)輸出為零時,就會出現(xiàn)這個問題,導致它的權值將得到零梯度。因此,當我們進行反向傳播時,神經(jīng)元的權重將永遠不會被更新,而特定的神經(jīng)元將永遠不會被激活。

還有件事值得一提。你可能注意到,不像 sigmoid 和 tanh,Relu 并未限定輸出范圍。這通常會成為一個很大的問題,它可能在另一個深度學習模型如遞歸神經(jīng)網(wǎng)絡(RNN)中成為麻煩。具體而言,由 ReLU 生成的無界值可能使 RNN 內(nèi)的計算在沒有合理的權重的情況下發(fā)生數(shù)值爆炸。因此反向傳播期間權重在錯誤方向上的輕微變化都會在正向傳遞過程中顯著放大激活值,如此一來學習過程可能就非常不穩(wěn)定。我會嘗試在下一篇博客文章中詳細介紹這一點。(摘自https://my.oschina.net/amui/blog/1633904)

1.4 softmax簡介

Softmax回歸模型是logistic回歸模型在多分類問題上的推廣,在多分類問題中,待分類的類別數(shù)量大于2,且類別之間互斥。比如我們的網(wǎng)絡要完成的功能是識別0-9這10個手寫數(shù)字,若最后一層的輸出為[0,1,0, 0, 0, 0, 0, 0, 0, 0],則表明我們網(wǎng)絡的識別結果為數(shù)字1。

Softmax的公式為

,可以直觀看出如果某一個zj大過其他z,那這個映射的分量就逼近于1,其他就逼近于0,并且對所有輸入數(shù)據(jù)進行歸一化。

2.權重:

3.偏置

偏置單元(bias unit),在有些資料里也稱為偏置項(bias term)或者截距項(intercept term),它其實就是函數(shù)的截距,與線性方程 y=wx+b 中的 b 的意義是一致的。在 y=wx+b中,b表示函數(shù)在y軸上的截距,控制著函數(shù)偏離原點的距離,其實在神經(jīng)網(wǎng)絡中的偏置單元也是類似的作用。

因此,神經(jīng)網(wǎng)絡的參數(shù)也可以表示為:(W, b),其中W表示參數(shù)矩陣,b表示偏置項或截距項。

2.反向傳播調(diào)節(jié)權重和偏置

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:一文淺談神經(jīng)網(wǎng)絡(非常適合初學者)

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    使用BP神經(jīng)網(wǎng)絡進行時間序列預測

    使用BP(Backpropagation)神經(jīng)網(wǎng)絡進行時間序列預測是一種常見且有效的方法。以下是一個基于BP神經(jīng)網(wǎng)絡進行時間序列預測的詳細步驟和考慮因素: 一、數(shù)據(jù)準備 收集數(shù)據(jù) :
    的頭像 發(fā)表于 02-12 16:44 ?1198次閱讀

    BP神經(jīng)網(wǎng)絡網(wǎng)絡結構設計原則

    BP(back propagation)神經(jīng)網(wǎng)絡是一種按照誤差逆向傳播算法訓練的多層前饋神經(jīng)網(wǎng)絡,其網(wǎng)絡結構設計原則主要基于以下幾個方面: 一、層次結構 輸入層 :接收外部輸入信號,不
    的頭像 發(fā)表于 02-12 16:41 ?1162次閱讀

    BP神經(jīng)網(wǎng)絡的調(diào)參技巧與建議

    BP神經(jīng)網(wǎng)絡的調(diào)參是一個復雜且關鍵的過程,涉及多個超參數(shù)的優(yōu)化和調(diào)整。以下是一些主要的調(diào)參技巧與建議: 一、學習率(Learning Rate) 重要性 :學習率是BP神經(jīng)網(wǎng)絡中最重要
    的頭像 發(fā)表于 02-12 16:38 ?1292次閱讀

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡的比較

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結構特點 BP神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 02-12 15:53 ?1153次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡的學習率

    優(yōu)化BP神經(jīng)網(wǎng)絡的學習率是提高模型訓練效率和性能的關鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡學習率的方法: 一、理解學習率的重要性 學習率決定了模型參數(shù)在每次迭代時更新的幅度。過大的學習率可
    的頭像 發(fā)表于 02-12 15:51 ?1348次閱讀

    BP神經(jīng)網(wǎng)絡的實現(xiàn)步驟詳解

    BP神經(jīng)網(wǎng)絡的實現(xiàn)步驟主要包括以下幾個階段:網(wǎng)絡初始化、前向傳播、誤差計算、反向傳播和權重更新。以下是對這些步驟的詳細解釋: 一、網(wǎng)絡初始化 確定網(wǎng)
    的頭像 發(fā)表于 02-12 15:50 ?1027次閱讀

    BP神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡優(yōu)缺點的分析
    的頭像 發(fā)表于 02-12 15:36 ?1378次閱讀

    什么是BP神經(jīng)網(wǎng)絡的反向傳播算法

    BP神經(jīng)網(wǎng)絡的反向傳播算法(Backpropagation Algorithm)是一種用于訓練神經(jīng)網(wǎng)絡的有效方法。以下是關于BP神經(jīng)網(wǎng)絡的反
    的頭像 發(fā)表于 02-12 15:18 ?1165次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關系

    BP神經(jīng)網(wǎng)絡與深度學習之間存在著密切的關系,以下是對它們之間關系的介紹: 一、BP神經(jīng)網(wǎng)絡的基本概念 B
    的頭像 發(fā)表于 02-12 15:15 ?1253次閱讀

    BP神經(jīng)網(wǎng)絡的基本原理

    BP神經(jīng)網(wǎng)絡(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個核心過程。以下是關于BP神經(jīng)網(wǎng)絡基本原理的介紹: 一、
    的頭像 發(fā)表于 02-12 15:13 ?1399次閱讀

    BP神經(jīng)網(wǎng)絡在圖像識別中的應用

    BP神經(jīng)網(wǎng)絡在圖像識別中發(fā)揮著重要作用,其多層結構使得網(wǎng)絡能夠學習到復雜的特征表達,適用于處理非線性問題。以下是對BP神經(jīng)網(wǎng)絡在圖像識別中應
    的頭像 發(fā)表于 02-12 15:12 ?1056次閱讀

    如何訓練BP神經(jīng)網(wǎng)絡模型

    BP(Back Propagation)神經(jīng)網(wǎng)絡是一種經(jīng)典的人工神經(jīng)網(wǎng)絡模型,其訓練過程主要分為兩個階段:前向傳播和反向傳播。以下是訓練BP神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 02-12 15:10 ?1326次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡 ? 人工神經(jīng)網(wǎng)絡模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1964次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡</b>架構方法

    卷積神經(jīng)網(wǎng)絡與傳統(tǒng)神經(jīng)網(wǎng)絡的比較

    在深度學習領域,神經(jīng)網(wǎng)絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡是兩種常見的模型。 1. 結構差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-15 14:53 ?2330次閱讀