一步步拆解複雜的數學算式,一筆筆手工算給你看, 硬派學習才能紮穩根基!
「想要學好深度學習,深入了解底層各種演算法的運算細節絕對有其必要!」相信不少初學者正抱持著相同的想法,希望好好熟悉 mini-batch 反向傳播、梯度下降等各種深度學習演算法的細節,但多數的情況卻可能一直碰壁...
原因很簡單,當你深究神經網路的底層運算,會發現種種演算法的背後統統都是數學, 學寫程式還行,滿滿的數學算式卻很容易讓人打退堂鼓,但是,真有決心學好基礎千萬不要就此放棄!
其實神經網路底層並沒用到多深的數學,只需要向量、矩陣等線性代數,以及偏微分、鏈鎖法則等微分技巧,掌握這些就綽綽有餘,但為什麼一堆數學算式總是讓人看了頭昏腦脹?因為數學光用看的是「無感」的!既然無法逃避,我們就帶你跟數學來個正面對決!當遇到看起來很複雜的數學算式時,我們會先一步步手工算給你看,再用 Python + NumPy 算一遍來驗證,完成這兩個步驟後保證清楚了解各種算式的涵義!
而針對深度學習的精髓-mini-batch 反向傳播運算,我們也將硬派拆解背後的數學運算,你將清楚看到 DNN、CNN 神經網路所有「反」著算來進行優化的細節,這絕對是其他深度學習書籍少見的紮實內容。
若你之前看了一大堆深度學習書籍或網路文章,始終對數學心存畏懼,也對底層的運算似懂非懂,請跟著本書潛心修練,一定可以紮實養成深度學習的基礎!
本書特色
Python 基礎紮根 ? 正面迎戰數學 ? 神經網路底層概念,該學的一次搞定!
•惡補深度學習的數學基礎,手工算最清楚!
對數�指數�向量�矩陣�矩陣乘積�微分�偏微分�全微分�鏈鎖法則
•紮實打好 Python 與常用套件的基礎
list�tuple�條件式�迴圈�函式�類別�reshape�transpose�NumPy�Matplotlib�scikit-learn
•零框架!硬派拆解深度學習演算法背後的數學運算
DNN 反向傳播�CNN 反向傳播�mini-batch SGD�Dropout�AdaGrad
•詳細解說,流暢翻譯
本書由【施威銘研究室】監修,書中針對原書進行大量補充,並適當添加註解,幫助讀者更加理解內容!