五月天婷亚洲天久久综合网,婷婷丁香五月激情亚洲综合,久久男人精品女人,麻豆91在线播放

  • <center id="8gusu"></center><rt id="8gusu"></rt>
    <menu id="8gusu"><small id="8gusu"></small></menu>
  • <dd id="8gusu"><s id="8gusu"></s></dd>
    850 0

    機器學習中的基礎(chǔ)知識(深入上篇)——CDA人工智能學院 [推廣有獎]

    • 4關(guān)注
    • 粉絲

    管理員

    大師

    88%

    還不是VIP/貴賓

    -

    威望
    3
    論壇幣
    85654 個
    通用積分
    4057.5106
    學術(shù)水平
    261 點
    熱心指數(shù)
    269 點
    信用等級
    237 點
    經(jīng)驗
    208746 點
    帖子
    5982
    精華
    19
    在線時間
    4033 小時
    注冊時間
    2019-9-13
    最后登錄
    2024-12-20

    初級熱心勛章

    相似文件 換一批

    +2 論壇幣
    k人 參與回答

    經(jīng)管之家送您一份

    應(yīng)屆畢業(yè)生專屬福利!

    求職就業(yè)群
    趙安豆老師微信:zhaoandou666

    經(jīng)管之家聯(lián)合CDA

    送您一個全額獎學金名額~ !

    感謝您參與論壇問題回答

    經(jīng)管之家送您兩個論壇幣!

    +2 論壇幣
    CDA人工智能學院致力于以優(yōu)質(zhì)的人工智能在線教育資源助力學員的DT職業(yè)夢想!課程內(nèi)容涵蓋數(shù)據(jù)分析、機器學習、深度學習、人工智能、TensorFlow、PyTorch、知識圖譜等眾多核心技術(shù)及行業(yè)案例,讓每一個學員都可以在線靈活學習,快速掌握AI時代的前沿技術(shù)。PS:私信我即可獲取《銀牌會員》1個月免費試聽機會

    機器學習的知識有很多,我們在前面的文章中講述的都是相對比較簡單的知識,想必那些已經(jīng)讓大家頭疼不已吧?在這篇文章中我們給大家介紹一下機器學習中深層次的知識。大家跟著小編學起來吧。


    (1)層就是神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元序列,可以處理輸入特征序列或神經(jīng)元的輸出。也是 TensorFlow 的一種抽象化概念。層是將張量和配置選項作為輸入、輸出其他張量的 Python 函數(shù)。一旦必要的張量出現(xiàn),用戶就可以通過模型函數(shù)將結(jié)果轉(zhuǎn)換成估計器。

    (2)學習率就是通過梯度下降訓練模型時使用的一個標量。每次迭代中,梯度下降算法使學習率乘以梯度,乘積叫作 gradient step。學習率是一個重要的超參數(shù)。

    (3)均方誤差就是每個樣本的平均平方損失。MSE 可以通過平方損失除以樣本數(shù)量來計算。TensorFlow Playground 展示訓練損失和測試損失的值是 MSE。

    (4)模型就是機器學習系統(tǒng)從訓練數(shù)據(jù)中所學內(nèi)容的表示。該術(shù)語有多個含義,包括以下兩個相關(guān)含義,第一個含義就是TensorFlow 圖,顯示如何計算預測的結(jié)構(gòu)。第二個含義就是TensorFlow 圖的特定權(quán)重和偏差,由訓練決定。

    (5)模型訓練就是確定最佳模型的過程。

    (6)動量就是一種復雜的梯度下降算法,其中的學習步不只依賴于當前步的導數(shù),還依賴于先于它的步。動量包括隨著時間計算梯度的指數(shù)加權(quán)移動平均數(shù),類似于物理學中的動量。動量有時可以阻止學習陷于局部最小值。

    (7)多類別就是在多于兩類的類別中進行分類的分類問題。

    (8)NaN trap就是訓練過程中,如果模型中的一個數(shù)字變成了 NaN,則模型中的很多或所有其他數(shù)字最終都變成 NaN。NaN 是「Not a Number」的縮寫。

    (9)負類就是在二元分類中,一個類別是正類,另外一個是負類。正類就是我們要找的目標,負類是另外一種可能性。

    (10)神經(jīng)網(wǎng)絡(luò)該模型從大腦中獲取靈感,由多個層組成,其中至少有一個是隱藏層,每個層包含簡單的連接單元或神經(jīng)元,其后是非線性。

    (11)神經(jīng)元神經(jīng)網(wǎng)絡(luò)中的節(jié)點,通常輸入多個值,生成一個輸出值。神經(jīng)元通過將激活函數(shù)應(yīng)用到輸入值的加權(quán)和來計算輸出值。


    這篇文章我們給大家介紹了很多機器學習中深入的內(nèi)容,這些內(nèi)容都是需要我們了解之前的知識才能夠理解這些內(nèi)容,所以大家不要偷懶或投機喲,要一個步驟一個腳印地來,這樣才能鞏固堅實的基礎(chǔ)儲備。希望這篇文章能夠給大家?guī)韼椭?/font>

    115940p38xxaeu3qe8qwxe.webp (1).jpg

    關(guān)注“CDA人工智能學院”,回復“錄播”獲取更多人工智能精選直播視頻!


    二維碼

    掃碼加我 拉你入群

    請注明:姓名-公司-職位

    以便審核進群資格,未注明則拒絕

    關(guān)鍵詞:機器學習 人工智能 基礎(chǔ)知識 CDA gradient

    已有 1 人評分經(jīng)驗 收起 理由
    np84 + 100 精彩帖子

    總評分: 經(jīng)驗 + 100   查看全部評分

    您需要登錄后才可以回帖 登錄 | 我要注冊

    本版微信群
    加JingGuanBbs
    拉您進交流群

    京ICP備16021002-2號 京B2-20170662號 京公網(wǎng)安備 11010802022788號 論壇法律顧問:王進律師 知識產(chǎn)權(quán)保護聲明   免責及隱私聲明

    GMT+8, 2024-12-23 05:58