Logistic回歸訓(xùn)練的用例
在過去的幾年中,人們?yōu)槭垢鼜?qiáng)大的計(jì)算平臺(tái)能夠應(yīng)對(duì)諸如機(jī)器學(xué)習(xí)之類的新興應(yīng)用所帶來的挑戰(zhàn)做出了許多努力。通用CPU已開發(fā)出專用的ML模塊,帶有專用引擎的GPU和FPGA指日可待。幾家新興公司開發(fā)了專門用于ML應(yīng)用和深度神經(jīng)網(wǎng)絡(luò)的新型ASIC。
在本文中,我們對(duì)云上可用的3個(gè)不同平臺(tái)(通用CPU,GPU和FPGA)進(jìn)行了比較。我們根據(jù)總執(zhí)行時(shí)間,準(zhǔn)確性和成本來評(píng)估性能。
對(duì)于此基準(zhǔn),我們選擇了邏輯回歸,因?yàn)樗亲顝V泛使用的分類算法之一。Logistic回歸用于為許多復(fù)雜的模式匹配和分類問題構(gòu)建預(yù)測(cè)模型。它被廣泛用于生物信息學(xué),金融和數(shù)據(jù)分析等領(lǐng)域。Logistic回歸通過使用Logistic函數(shù)估計(jì)概率來度量分類因變量和一個(gè)或多個(gè)自變量之間的關(guān)系。
選擇Logistic回歸是因?yàn)樗梢哉f是構(gòu)建預(yù)測(cè)分析用例的最流行算法,并且在擬合模型時(shí)可以使用其迭代過程,這使我們可以從此比較中提取更好的結(jié)果。
在這種情況下,我們?cè)u(píng)估了具有10個(gè)類別和100萬個(gè)數(shù)據(jù)集的MNIST數(shù)據(jù)集的訓(xùn)練。
這些筆記本的目的是使用三種實(shí)現(xiàn)方式(Python的Sklearn軟件包(與Intel的Math Kernel庫一起),Rapids cuml庫和類似InAccel的Sklearn軟件包)比較和評(píng)估Logistic回歸模型的性能。第一個(gè)是廣泛使用的數(shù)據(jù)科學(xué)庫,英特爾的MKL是cpu數(shù)學(xué)處理加速框架,而其他則分別是基于GPU和FPGA加速器構(gòu)建的較新解決方案。
我們?cè)?個(gè)不同的平臺(tái)上比較了培訓(xùn):
參考:Intel Xeon Skylake SP(帶有原始代碼的r5.2xlarge)
MKL:Intel Xeon Skylake SP(使用MKL庫的r5.2x大)
GPU:NVIDIA?V100 Tensor Core(p3.2x大型RAPIDS庫)
FPGA:FPGA(使用InAccel ML套件的f1.2x)
對(duì)于通用CPU,我們同時(shí)使用原始代碼(沒有優(yōu)化的庫)和Intel MKL庫來優(yōu)化ML內(nèi)核。在GPU的情況下,我們使用RAPIDS框架;在FPGA的情況下,我們使用我們自己的ML套件,用于 InAccel提供的邏輯回歸。
下圖描述了每個(gè)平臺(tái)的性能(總執(zhí)行時(shí)間)。如您所見,與其他平臺(tái)相比,GPU可獲得最佳性能。但是,這種情況下的準(zhǔn)確性僅為73%,而其他平臺(tái)可以達(dá)到88%的準(zhǔn)確性。因此,就準(zhǔn)確性而言,使用InAccel ML套件的FPGA可以實(shí)現(xiàn)最佳性能和非常高的準(zhǔn)確性。
邏輯回歸的ML訓(xùn)練(MNIST)的總執(zhí)行時(shí)間。在括號(hào)中,是每個(gè)平臺(tái)/算法所達(dá)到的精度。
但是,成本對(duì)于企業(yè)和數(shù)據(jù)科學(xué)家也非常重要。在這種情況下,我們比較了使用這四個(gè)平臺(tái)的性能與成本之間的權(quán)衡。每個(gè)平臺(tái)的成本如下所示:
r5.2xlarge:$ 0.504 /小時(shí)
p3.2xlarge:$ 3.06 /小時(shí)
f1.2xlarge:每小時(shí)$ 1.65
在下圖中,我們顯示了這4個(gè)平臺(tái)的ML訓(xùn)練的性能(總執(zhí)行時(shí)間)和總成本。
使用MNIST訓(xùn)練Logistic回歸的性能與成本(在括號(hào)中,您可以看到每個(gè)模型實(shí)現(xiàn)的準(zhǔn)確性)
從圖中可以看出,云上的FPGA(在這種情況下,使用InAccel ML套件為f1.2xlarge)在性能準(zhǔn)確性和成本方面實(shí)現(xiàn)了最佳組合。用于GPP(MKL)的優(yōu)化庫可實(shí)現(xiàn)最具成本效益的解決方案,但性能不如使用加速器高。GPU可以實(shí)現(xiàn)更好的性能,但成本要高得多,在這種情況下,其精度在許多應(yīng)用中是不可接受的。
關(guān)注 CDA人工智能學(xué)院 ,回復(fù)“錄播”獲取更多人工智能精選直播視頻!