五月天婷亚洲天久久综合网,婷婷丁香五月激情亚洲综合,久久男人精品女人,麻豆91在线播放

  • <center id="8gusu"></center><rt id="8gusu"></rt>
    <menu id="8gusu"><small id="8gusu"></small></menu>
  • <dd id="8gusu"><s id="8gusu"></s></dd>
    773 0

    [數(shù)據(jù)挖掘新聞] 機(jī)器學(xué)習(xí)云計(jì)算平臺(tái)的性能評(píng)估 [推廣有獎(jiǎng)]

    • 0關(guān)注
    • 14粉絲

    svip3

    學(xué)術(shù)權(quán)威

    12%

    (VIP/貴賓)六級(jí)

    76%

    威望
    0 級(jí)
    論壇幣
    26 個(gè)
    通用積分
    57.2238
    學(xué)術(shù)水平
    4 點(diǎn)
    熱心指數(shù)
    4 點(diǎn)
    信用等級(jí)
    4 點(diǎn)
    經(jīng)驗(yàn)
    34180 點(diǎn)
    帖子
    2732
    精華
    0
    在線時(shí)間
    321 小時(shí)
    注冊(cè)時(shí)間
    2020-7-21
    最后登錄
    2024-8-1

    +2 論壇幣
    k人 參與回答

    經(jīng)管之家送您一份

    應(yīng)屆畢業(yè)生專屬福利!

    求職就業(yè)群
    趙安豆老師微信:zhaoandou666

    經(jīng)管之家聯(lián)合CDA

    送您一個(gè)全額獎(jiǎng)學(xué)金名額~ !

    感謝您參與論壇問題回答

    經(jīng)管之家送您兩個(gè)論壇幣!

    +2 論壇幣
    機(jī)器學(xué)習(xí)云計(jì)算平臺(tái)的性能評(píng)估
    Logistic回歸訓(xùn)練的用例
    在過去的幾年中,人們?yōu)槭垢鼜?qiáng)大的計(jì)算平臺(tái)能夠應(yīng)對(duì)諸如機(jī)器學(xué)習(xí)之類的新興應(yīng)用所帶來的挑戰(zhàn)做出了許多努力。通用CPU已開發(fā)出專用的ML模塊,帶有專用引擎的GPU和FPGA指日可待。幾家新興公司開發(fā)了專門用于ML應(yīng)用和深度神經(jīng)網(wǎng)絡(luò)的新型ASIC。
    在本文中,我們對(duì)云上可用的3個(gè)不同平臺(tái)(通用CPU,GPU和FPGA)進(jìn)行了比較。我們根據(jù)總執(zhí)行時(shí)間,準(zhǔn)確性和成本來評(píng)估性能。
    對(duì)于此基準(zhǔn),我們選擇了邏輯回歸,因?yàn)樗亲顝V泛使用的分類算法之一。Logistic回歸用于為許多復(fù)雜的模式匹配和分類問題構(gòu)建預(yù)測(cè)模型。它被廣泛用于生物信息學(xué),金融和數(shù)據(jù)分析等領(lǐng)域。Logistic回歸通過使用Logistic函數(shù)估計(jì)概率來度量分類因變量和一個(gè)或多個(gè)自變量之間的關(guān)系。
    選擇Logistic回歸是因?yàn)樗梢哉f是構(gòu)建預(yù)測(cè)分析用例的最流行算法,并且在擬合模型時(shí)可以使用其迭代過程,這使我們可以從此比較中提取更好的結(jié)果。
    在這種情況下,我們?cè)u(píng)估了具有10個(gè)類別和100萬個(gè)數(shù)據(jù)集的MNIST數(shù)據(jù)集的訓(xùn)練。
    這些筆記本的目的是使用三種實(shí)現(xiàn)方式(Python的Sklearn軟件包(與Intel的Math Kernel庫一起),Rapids cuml庫和類似InAccel的Sklearn軟件包)比較和評(píng)估Logistic回歸模型的性能。第一個(gè)是廣泛使用的數(shù)據(jù)科學(xué)庫,英特爾的MKL是cpu數(shù)學(xué)處理加速框架,而其他則分別是基于GPU和FPGA加速器構(gòu)建的較新解決方案。
    我們?cè)?個(gè)不同的平臺(tái)上比較了培訓(xùn):
    參考:Intel Xeon Skylake SP(帶有原始代碼的r5.2xlarge)
    MKL:Intel Xeon Skylake SP(使用MKL庫的r5.2x大)
    GPU:NVIDIA?V100 Tensor Core(p3.2x大型RAPIDS庫)
    FPGA:FPGA(使用InAccel ML套件的f1.2x)
    對(duì)于通用CPU,我們同時(shí)使用原始代碼(沒有優(yōu)化的庫)和Intel MKL庫來優(yōu)化ML內(nèi)核。在GPU的情況下,我們使用RAPIDS框架;在FPGA的情況下,我們使用我們自己的ML套件,用于 InAccel提供的邏輯回歸。
    下圖描述了每個(gè)平臺(tái)的性能(總執(zhí)行時(shí)間)。如您所見,與其他平臺(tái)相比,GPU可獲得最佳性能。但是,這種情況下的準(zhǔn)確性僅為73%,而其他平臺(tái)可以達(dá)到88%的準(zhǔn)確性。因此,就準(zhǔn)確性而言,使用InAccel ML套件的FPGA可以實(shí)現(xiàn)最佳性能和非常高的準(zhǔn)確性。
    邏輯回歸的ML訓(xùn)練(MNIST)的總執(zhí)行時(shí)間。在括號(hào)中,是每個(gè)平臺(tái)/算法所達(dá)到的精度。
    但是,成本對(duì)于企業(yè)和數(shù)據(jù)科學(xué)家也非常重要。在這種情況下,我們比較了使用這四個(gè)平臺(tái)的性能與成本之間的權(quán)衡。每個(gè)平臺(tái)的成本如下所示:
    r5.2xlarge:$ 0.504 /小時(shí)
    p3.2xlarge:$ 3.06 /小時(shí)
    f1.2xlarge:每小時(shí)$ 1.65
    在下圖中,我們顯示了這4個(gè)平臺(tái)的ML訓(xùn)練的性能(總執(zhí)行時(shí)間)和總成本。
    使用MNIST訓(xùn)練Logistic回歸的性能與成本(在括號(hào)中,您可以看到每個(gè)模型實(shí)現(xiàn)的準(zhǔn)確性)
    從圖中可以看出,云上的FPGA(在這種情況下,使用InAccel ML套件為f1.2xlarge)在性能準(zhǔn)確性和成本方面實(shí)現(xiàn)了最佳組合。用于GPP(MKL)的優(yōu)化庫可實(shí)現(xiàn)最具成本效益的解決方案,但性能不如使用加速器高。GPU可以實(shí)現(xiàn)更好的性能,但成本要高得多,在這種情況下,其精度在許多應(yīng)用中是不可接受的。

    關(guān)注 CDA人工智能學(xué)院 ,回復(fù)“錄播”獲取更多人工智能精選直播視頻!


    二維碼

    掃碼加我 拉你入群

    請(qǐng)注明:姓名-公司-職位

    以便審核進(jìn)群資格,未注明則拒絕

    關(guān)鍵詞:云計(jì)算平臺(tái) 機(jī)器學(xué)習(xí) 云計(jì)算 Logistic回歸模型 logistic回歸

    本版微信群
    加好友,備注cda
    拉您進(jìn)交流群

    京ICP備16021002-2號(hào) 京B2-20170662號(hào) 京公網(wǎng)安備 11010802022788號(hào) 論壇法律顧問:王進(jìn)律師 知識(shí)產(chǎn)權(quán)保護(hù)聲明   免責(zé)及隱私聲明

    GMT+8, 2024-12-22 22:25