五月天婷亚洲天久久综合网,婷婷丁香五月激情亚洲综合,久久男人精品女人,麻豆91在线播放

  • <center id="8gusu"></center><rt id="8gusu"></rt>
    <menu id="8gusu"><small id="8gusu"></small></menu>
  • <dd id="8gusu"><s id="8gusu"></s></dd>
    樓主: kychan
    10140 66

    【獨(dú)家發(fā)布】【2018 】Machine Learning A Practical Approach Statistical Learning Theory   [推廣有獎(jiǎng)]

    • 6關(guān)注
    • 粉絲

    區(qū)版主

    泰斗

    65%

    還不是VIP/貴賓

    -

    TA的文庫(kù)  其他...

    學(xué)管理 • 學(xué)人生

    每日股市

    【KYCHAN文庫(kù)】

    威望
    12 級(jí)
    論壇幣
    1178110 個(gè)
    通用積分
    97615.6196
    學(xué)術(shù)水平
    15760 點(diǎn)
    熱心指數(shù)
    16780 點(diǎn)
    信用等級(jí)
    14408 點(diǎn)
    經(jīng)驗(yàn)
    679937 點(diǎn)
    帖子
    12358
    精華
    52
    在線時(shí)間
    9945 小時(shí)
    注冊(cè)時(shí)間
    2013-4-2
    最后登錄
    2024-12-23

    初級(jí)熱心勛章 中級(jí)熱心勛章 高級(jí)熱心勛章 初級(jí)學(xué)術(shù)勛章 中級(jí)學(xué)術(shù)勛章 高級(jí)學(xué)術(shù)勛章 初級(jí)信用勛章 中級(jí)信用勛章 高級(jí)信用勛章 特級(jí)熱心勛章 特級(jí)學(xué)術(shù)勛章 特級(jí)信用勛章

    樓主
    kychan 學(xué)生認(rèn)證  發(fā)表于 2018-8-3 10:53:42 |只看作者 |壇友微信交流群|倒序 |AI寫論文
    相似文件 換一批

    +2 論壇幣
    k人 參與回答

    經(jīng)管之家送您一份

    應(yīng)屆畢業(yè)生專屬福利!

    求職就業(yè)群
    趙安豆老師微信:zhaoandou666

    經(jīng)管之家聯(lián)合CDA

    送您一個(gè)全額獎(jiǎng)學(xué)金名額~ !

    感謝您參與論壇問(wèn)題回答

    經(jīng)管之家送您兩個(gè)論壇幣!

    +2 論壇幣
    【2018 】Machine Learning. A Practical Approach on the Statistical Learning Theory
    Machine
    Book 圖書(shū)名稱:    Machine Learning. A Practical Approach on the Statistical Learning Theory
    Author 作者:     Rodrigo Fernandes de Mello, Moacir Antonelli Ponti
    Publisher 出版社: Springer
    Page 頁(yè)數(shù):368
    Publishing Date 出版時(shí)間: Sep 2018                    
    Language 語(yǔ)言: English
    Size 大。 11 MB
    Format 格式: pdf 文字版
    ISBN: 978-3-319-94989-5
    Edition: 第1版




    This book presents the Statistical Learning Theory in a detailed and easy to understand way, by using practical examples, algorithms and source codes. It can be used as a textbook in graduation or undergraduation courses, for self-learners, or as reference with respect to the main theoretical concepts of Machine Learning. Fundamental concepts of Linear Algebra and Optimization applied to Machine Learning are provided, as well as source codes in R, making the book as self-contained as possible.

    It starts with an introduction to Machine Learning concepts and algorithms such as the Perceptron, Multilayer Perceptron and the Distance-Weighted Nearest Neighbors with examples, in order to provide the necessary foundation so the reader is able to understand the Bias-Variance Dilemma, which is the central point of the Statistical Learning Theory.

    Afterwards, we introduce all assumptions and formalize the Statistical Learning Theory, allowing the practical study of different classification algorithms. Then, we proceed with concentration inequalities until arriving to the Generalization and the Large-Margin bounds, providing the main motivations for the Support Vector Machines.

    From that, we introduce all necessary optimization concepts related to the implementation of Support Vector Machines. To provide a next stage of development, the book finishes with a discussion on SVM kernels as a way and motivation to study data spaces and improve classification results.  

    Table of Content
    Foreword......Page 3
    Contents......Page 4
    Acronyms......Page 7
    1.1 Machine Learning Definition......Page 8
    1.2 Main Types of Learning......Page 11
    1.3 Supervised Learning......Page 12
    1.4 How a Supervised Algorithm Learns?......Page 26
    1.5.1 The Perceptron......Page 35
    1.5.2 Multilayer Perceptron......Page 59
    1.6 Concluding Remarks......Page 79
    References......Page 80
    2.1 Motivation......Page 82
    2.2 Basic Concepts......Page 83
    2.2.1 Probability Densities and Joint Probabilities......Page 84
    2.2.2 Identically and Independently Distributed Data......Page 89
    2.2.3 Statistical Learning Theory Assumptions......Page 96
    2.2.4 Expected Risk and Generalization......Page 97
    2.2.5 Bounds for Generalization: A Practical Example......Page 99
    2.2.6 Bayes Risk and Universal Consistency......Page 104
    2.2.7 Consistency, Overfitting and Underfitting......Page 105
    2.2.8 Bias of Classification Algorithms......Page 108
    2.3 Empirical Risk Minimization Principle......Page 109
    2.3.1 Consistency and the ERM Principle......Page 111
    2.3.2 Restriction of the Space of Admissible Functions......Page 112
    2.3.3 Ensuring Uniform Convergence in Practice......Page 115
    2.4 Symmetrization Lemma and the Shattering Coefficient......Page 117
    2.4.1 Shattering Coefficient as a Capacity Measure......Page 118
    2.4.2 Making the ERM Principle Consistent for Infinite Functions......Page 120
    2.5 Generalization Bounds......Page 122
    2.6 The Vapnik-Chervonenkis Dimension......Page 125
    2.6.1 Margin Bounds......Page 128
    2.7 Computing the Shattering Coefficient......Page 129
    2.8 Concluding Remarks......Page 133
    References......Page 134
    3.2 Distance-Weighted Nearest Neighbors......Page 136
    3.3 Using the Chernoff Bound......Page 145
    3.4 Using the Generalization Bound......Page 153
    3.5 Using the SVM Generalization Bound......Page 156
    3.6 Empirical Study of the Biases of Classification Algorithms......Page 164
    3.8 List of Exercises......Page 167
    References......Page 168
    4.2.1 Basis......Page 169
    4.2.2 Linear Transformation......Page 171
    4.2.3 Inverses of Linear Transformations......Page 174
    4.2.4 Dot Products......Page 176
    4.2.5 Change of Basis and Orthonormal Basis......Page 178
    4.2.6 Eigenvalues and Eigenvectors......Page 180
    4.3 Using Basic Algebra to Build a Classification Algorithm......Page 185
    4.4 Hyperplane-Based Classification: An Intuitive View......Page 196
    4.5 Hyperplane-Based Classification: An Algebraic View......Page 204
    4.5.1 Lagrange Multipliers......Page 208
    4.5.2 Karush-Kuhn-Tucker Conditions......Page 212
    4.6 Formulating the Hard-Margin SVM Optimization Problem......Page 217
    4.7 Formulating the Soft-Margin SVM Optimization Problem......Page 225
    4.9 List of Exercises......Page 231
    References......Page 232
    5.2 Introducing Optimization Problems......Page 233
    5.3 Main Types of Optimization Problems......Page 234
    5.4.1 Solving Through Graphing......Page 240
    5.4.2.1 Using the Table and Rules......Page 247
    5.4.2.2 Graphical Interpretation of Primal and Dual Forms......Page 251
    5.4.2.3 Using Lagrange Multipliers......Page 255
    5.4.3 Using an Algorithmic Approach to Solve Linear Problems......Page 259
    5.4.4 On the KKT Conditions for Linear Problems......Page 269
    5.4.4.1 Applying the Rules......Page 272
    5.4.4.2 Graphical Interpretation of the KKT Conditions......Page 275
    5.5 Convex Optimization Problems......Page 277
    5.5.1 Interior Point Methods......Page 287
    5.5.1.1 Primal-Dual IPM for Linear Problem......Page 288
    5.5.2 IPM to Solve the SVM Optimization Problem......Page 303
    5.5.3 Solving the SVM Optimization Problem Using Package LowRankQP......Page 317
    5.6 Concluding Remarks......Page 328
    References......Page 329
    6 Brief Intro on Kernels......Page 331
    6.1 Definitions, Typical Kernels and Examples......Page 332
    6.1.1 The Polynomial Kernel......Page 333
    6.1.2 The Radial Basis Function Kernel......Page 334
    6.1.3 The Sigmoidal Kernel......Page 335
    6.1.4 Practical Examples with Kernels......Page 336
    6.2 Principal Component Analysis......Page 338
    6.3 Kernel Principal Component Analysis......Page 342
    6.4 Exploratory Data Analysis......Page 345
    6.4.1 How Does the Data Space Affect the Kernel Selection?......Page 346
    6.4.2 Kernels on a 3-Class Problem......Page 355
    6.4.3 Studying the Data Spaces in an Empirical Fashion......Page 358
    6.4.4 Additional Notes on Kernels......Page 361
    6.5 SVM Kernel Trick......Page 362
    6.6 A Quick Note on the Mercer's Theorem......Page 366
    6.8 List of Exercises......Page 367
    Reference......Page 368

    == 回帖見(jiàn)免費(fèi)下載 ==

    本帖隱藏的內(nèi)容

    Machine Learning 2018.pdf (11.18 MB)


    聲明: 本資源僅供學(xué)術(shù)研究參考之用,發(fā)布者不負(fù)任何法律責(zé)任,敬請(qǐng)下載者支持購(gòu)買正版。


    二維碼

    掃碼加我 拉你入群

    請(qǐng)注明:姓名-公司-職位

    以便審核進(jìn)群資格,未注明則拒絕

    關(guān)鍵詞:學(xué)術(shù)研究 免費(fèi)下載 法律責(zé)任 word 出版時(shí)間

    已有 2 人評(píng)分經(jīng)驗(yàn) 論壇幣 收起 理由
    xujingtang + 80 精彩帖子
    zhou_yl + 60 精彩帖子

    總評(píng)分: 經(jīng)驗(yàn) + 80  論壇幣 + 60   查看全部評(píng)分

    本帖被以下文庫(kù)推薦

    不管你不喜歡我和不愛(ài)我
    沙發(fā)
    Jealy 在職認(rèn)證  發(fā)表于 2018-8-3 10:58:00 |只看作者 |壇友微信交流群
    已有 1 人評(píng)分經(jīng)驗(yàn) 論壇幣 學(xué)術(shù)水平 熱心指數(shù) 信用等級(jí) 收起 理由
    kychan + 60 + 60 + 5 + 5 + 5 精彩沙發(fā)

    總評(píng)分: 經(jīng)驗(yàn) + 60  論壇幣 + 60  學(xué)術(shù)水平 + 5  熱心指數(shù) + 5  信用等級(jí) + 5   查看全部評(píng)分

    藤椅
    karst 發(fā)表于 2018-8-3 10:58:02 |只看作者 |壇友微信交流群
    版主上午好,好久沒(méi)看見(jiàn)版主的帖子了
    已有 1 人評(píng)分經(jīng)驗(yàn) 論壇幣 學(xué)術(shù)水平 熱心指數(shù) 信用等級(jí) 收起 理由
    kychan + 20 + 20 + 1 + 1 + 1 忙工作

    總評(píng)分: 經(jīng)驗(yàn) + 20  論壇幣 + 20  學(xué)術(shù)水平 + 1  熱心指數(shù) + 1  信用等級(jí) + 1   查看全部評(píng)分

    板凳
    karst 發(fā)表于 2018-8-3 10:58:23 |只看作者 |壇友微信交流群
    謝謝版主的資源
    報(bào)紙
    西門高 發(fā)表于 2018-8-3 11:00:35 |只看作者 |壇友微信交流群
    謝謝樓主
    地板
    kukenghuqian 發(fā)表于 2018-8-3 11:02:36 |只看作者 |壇友微信交流群
    7
    軍旗飛揚(yáng) 發(fā)表于 2018-8-3 11:25:22 |只看作者 |壇友微信交流群
    謝謝分享
    8
    deric_zhou 發(fā)表于 2018-8-3 11:34:34 |只看作者 |壇友微信交流群
    謝謝您的分享
    9
    uandi 發(fā)表于 2018-8-3 12:50:31 |只看作者 |壇友微信交流群
    thanks a lot

    謝謝版主的資源

    本版微信群
    加JingGuanBbs
    拉您進(jìn)交流群

    京ICP備16021002-2號(hào) 京B2-20170662號(hào) 京公網(wǎng)安備 11010802022788號(hào) 論壇法律顧問(wèn):王進(jìn)律師 知識(shí)產(chǎn)權(quán)保護(hù)聲明   免責(zé)及隱私聲明

    GMT+8, 2024-12-24 01:18