CDA人工智能學院致力于以優(yōu)質(zhì)的人工智能在線教育資源助力學員的DT職業(yè)夢想!課程內(nèi)容涵蓋數(shù)據(jù)分析、機器學習、深度學習、人工智能、TensorFlow、PyTorch、知識圖譜等眾多核心技術(shù)及行業(yè)案例,讓每一個學員都可以在線靈活學習,快速掌握AI時代的前沿技術(shù)。PS:私信我即可獲取《銀牌會員》1個月免費試聽機會
機器學習的知識有很多,我們在前面的文章中講述的都是相對比較簡單的知識,想必那些已經(jīng)讓大家頭疼不已吧?在這篇文章中我們給大家介紹一下機器學習中深層次的知識。大家跟著小編學起來吧。
(1)層就是神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元序列,可以處理輸入特征序列或神經(jīng)元的輸出。也是 TensorFlow 的一種抽象化概念。層是將張量和配置選項作為輸入、輸出其他張量的 Python 函數(shù)。一旦必要的張量出現(xiàn),用戶就可以通過模型函數(shù)將結(jié)果轉(zhuǎn)換成估計器。
(2)學習率就是通過梯度下降訓練模型時使用的一個標量。每次迭代中,梯度下降算法使學習率乘以梯度,乘積叫作 gradient step。學習率是一個重要的超參數(shù)。
(3)均方誤差就是每個樣本的平均平方損失。MSE 可以通過平方損失除以樣本數(shù)量來計算。TensorFlow Playground 展示訓練損失和測試損失的值是 MSE。
(4)模型就是機器學習系統(tǒng)從訓練數(shù)據(jù)中所學內(nèi)容的表示。該術(shù)語有多個含義,包括以下兩個相關(guān)含義,第一個含義就是TensorFlow 圖,顯示如何計算預測的結(jié)構(gòu)。第二個含義就是TensorFlow 圖的特定權(quán)重和偏差,由訓練決定。
(5)模型訓練就是確定最佳模型的過程。
(6)動量就是一種復雜的梯度下降算法,其中的學習步不只依賴于當前步的導數(shù),還依賴于先于它的步。動量包括隨著時間計算梯度的指數(shù)加權(quán)移動平均數(shù),類似于物理學中的動量。動量有時可以阻止學習陷于局部最小值。
(7)多類別就是在多于兩類的類別中進行分類的分類問題。
(8)NaN trap就是訓練過程中,如果模型中的一個數(shù)字變成了 NaN,則模型中的很多或所有其他數(shù)字最終都變成 NaN。NaN 是「Not a Number」的縮寫。
(9)負類就是在二元分類中,一個類別是正類,另外一個是負類。正類就是我們要找的目標,負類是另外一種可能性。
(10)神經(jīng)網(wǎng)絡(luò)該模型從大腦中獲取靈感,由多個層組成,其中至少有一個是隱藏層,每個層包含簡單的連接單元或神經(jīng)元,其后是非線性。
(11)神經(jīng)元神經(jīng)網(wǎng)絡(luò)中的節(jié)點,通常輸入多個值,生成一個輸出值。神經(jīng)元通過將激活函數(shù)應(yīng)用到輸入值的加權(quán)和來計算輸出值。
這篇文章我們給大家介紹了很多機器學習中深入的內(nèi)容,這些內(nèi)容都是需要我們了解之前的知識才能夠理解這些內(nèi)容,所以大家不要偷懶或投機喲,要一個步驟一個腳印地來,這樣才能鞏固堅實的基礎(chǔ)儲備。希望這篇文章能夠給大家?guī)韼椭?/font>
關(guān)注“CDA人工智能學院”,回復“錄播”獲取更多人工智能精選直播視頻!