• 登入
  • 註冊



  • 購物車(0)
  1. 二手書搜尋
     

    書籍分類
    1. 回到書城首頁
    2. 【本日66折】
    3. 【最新上架】
    4. 【逛書房】
    5. 【人文 史地】
    6. 【文學 小說】
    7. 【自然 科學】
    8. 【休閒 嗜好】
    9. 【保健 美容】
    10. 【進修 語言】
    11. 【大學用書】
    12. 【財經 企管】
    13. 【心理 人際關係】
    14. 【家庭 親子】
    15. 【藝術 設計】
    16. 【傳記 珍本】
    17. 【漫畫 電玩】
    18. 【宗教 命理】
    19. 【電腦 網路】
    20. 【參考書 工具書】
    21. 【雜誌期刊】
  2. 買二手書 > 書寶官方書城  >【自然 科學】 > 科學

    【DP4】深度學習_簡體_(美)伊恩·古德費洛等


    作者: (美)伊恩·古德費洛等
    出版社: 人民郵電出版社
    ISBN: 9787115461476
    付款方式: 7-11付款取貨、Web ATM、信用卡一次付清
    配送方式運費:
    • i郵箱純取貨  
      - 1~10本運費 $60 $40
      - 11本以上請分筆下單
    • 7-11付款取貨
      -運費 $60
    • 宅配/貨運/郵寄
      -運費 $120
    • 外島
      -運費 $120
    原價: 589
    售價: 529
    商品數量:1
    商品編號: O_U102389279

    書況補充說明:B自然泛黃書斑、髒污。
     加入購物車

     加入暫存清單

    限時特價,要買要快

    LINE分享
    FB分享


    其他二手書推薦
    【ENG】哪個是哪個?食物比一比_高岡昌江,  周姚萍
    作者:高岡昌江,周姚萍
    售價:219
    【FGX】神秘絕美的東方亞洲_Stefano Brambilla作
    作者:StefanoBrambilla作
    售價:929
    【E4G】哪個是哪個?食物比一比_高岡昌江,  周姚萍
    作者:高岡昌江,周姚萍
    售價:219


    • 商品資訊
    • 心得分享

    文字大小:

    以下書況,主觀上皆可閱讀,若收到後不滿意,『都可退書退款』。

    書況補充說明: B自然泛黃書斑、髒污。


    【購買須知】

    (1)照片皆為現貨實際拍攝,請參書況說明。

    (2)『賣場標題、內容簡介』為出版社原本資料,若有疑問請留言,但人力有限,恕不提供大量詢問。

    (3)『附件或贈品』,不論標題或內容簡介是否有標示,請都以『沒有附件,沒有贈品』為參考。

    (4)訂單完成即『無法加購、修改、合併』,請確認品項、優惠後,再下訂結帳。如有疑問請留言告知。

    (5)二手書皆為獨立商品,下訂即刪除該品項,故『取消』後無法重新訂購,須等系統安排『2個月後』重新上架。

    (6)收到書籍後,若不滿意,或有缺漏,『都可退書退款』。



    [商品主貨號] U102389279

    [ISBN-13碼] 9787115461476

    [ISBN] 7115461473

    [作者] (美)伊恩·古德費洛等

    [出版社] 人民郵電出版社

    [出版日期] 2017/08/01

    [裝訂/規格] 500頁 / 普通級 / 1-2

    [目錄]
    第 1 章 引言 . . . . . . . . . 1

    1.1 本書面向的讀者 . . . . . . . . . . . . . . . . . . . .7

    1.2 深度學習的歷史趨勢 . . . . . . . . . . . . . . . 8

    1.2.1 神經網絡的眾多名稱和命運變遷 . 8

    1.2.2 與日俱增的數據量 . . . . . . . . . . . . . 12

    1.2.3 與日俱增的模型規模 . . . . . . . . . . .13

    1.2.4 與日俱增的精度、復雜度和對現實世界的沖擊. . . . . . . 15

    第 1 部分 應用數學與機器學習基礎

    第 2 章 線性代數 . . . 19

    2.1 標量、向量、矩陣和張量 . . . . . . . . . . 19

    2.2 矩陣和向量相乘. . . . . . . . . . . . . . . . . . .21

    2.3 單位矩陣和逆矩陣 . . . . . . . . . . . . . . . . 22

    2.4 線性相關和生成子空間 . . . . . . . . . . . 23

    2.5 范數. . . . . . . . .24

    2.6 特殊類型的矩陣和向量 . . . . . . . . . . . 25

    2.7 特征分解 . . . . 26

    2.8 奇異值分解 . . . . . . . . . . . . . . . . . . . . . . . 28

    2.9 Moore-Penrose 偽逆 . . . . . . . . . . . . . . . 28

    2.10 跡運算 . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    2.11 行列式 . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

    2.12 實例:主成分分析. . . . . . . . . . . . . . . .30

    第 3 章 概率與信息論. . . . . . . . . . . . . . . . . . . . .34

    3.1 為什麼要使用概率 . . . . . . . . . . . . . . . . 34

    3.2 隨機變量 . . . . . . . . . . . . . . . . . . . . . . . . . . 35

    3.3 概率分布 . . . . . . . . . . . . . . . . . . . . . . . . . . 36

    3.3.1 離散型變量和概率質量函數 . . . . 36

    3.3.2 連續型變量和概率密度函數 . . . . 36

    3.4 邊緣概率 . . . . . . . . . . . . . . . . . . . . . . . . . . 37

    3.5 條件概率 . . . . . . . . . . . . . . . . . . . . . . . . . . 37

    3.6 條件概率的鏈式法則 . . . . . . . . . . . . . . 38

    3.7 獨立性和條件獨立性 . . . . . . . . . . . . . . 38

    3.8 期望、方差和協方差 . . . . . . . . . . . . . . 38

    3.9 常用概率分布 . . . . . . . . . . . . . . . . . . . . . 39

    3.9.1 Bernoulli 分布 . . . . . . . . . . . . . . . . 40

    3.9.2 Multinoulli 分布 . . . . . . . . . . . . . . 40

    3.9.3 高斯分布 . . . . . . . . . . . . . . . . . . . . . 40

    3.9.4 指數分布和 Laplace 分布 . . . . . . 41

    3.9.5 Dirac 分布和經驗分布 . . . . . . . . . 42

    3.9.6 分布的混合 . . . . . . . . . . . . . . . . . . . 42

    3.10 常用函數的有用性質. . . . . . . . . . . . .43

    3.11 貝葉斯規則 . . . . . . . . . . . . . . . . . . . . . . 45

    3.12 連續型變量的技術細節 . . . . . . . . . . 45

    3.13 信息論 . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

    3.14 結構化概率模型 . . . . . . . . . . . . . . . . . 49

    第 4 章 數值計算 . . . . . . . . . . . . . . . . . . . . . . . . . 52

    4.1 上溢和下溢 . . . . . . . . . . . . . . . . . . . . . . . 52

    4.2 病態條件 . . . . . . . . . . . . . . . . . . . . . . . . . . 53

    4.3 基於梯度的優化方法 . . . . . . . . . . . . . . 53

    4.3.1 梯度之上:Jacobian 和 Hessian 矩陣. . . . . . . . . . 56

    4.4 約束優化 . . . . . . . . . . . . . . . . . . . . . . . . . . 60

    4.5 實例:線性最小二乘 . . . . . . . . . . . . . . 61

    第 5 章 機器學習基礎. . . . . . . . . . . . . . . . . . . . .63

    5.1 學習算法 . . . . . . . . . . . . . . . . . . . . . . . . . . 63

    5.1.1 任務 T . . . . . . . . . . . . . . . . . . . . . . 63

    5.1.2 性能度量 P . . . . . . . . . . . . . . . . . . . 66

    5.1.3 經驗 E . . . . . . . . . . . . . . . . . . . . . . . 66

    5.1.4 示例:線性回歸 . . . . . . . . . . . . . . . 68

    5.2 容量、過擬合和欠擬合 . . . . . . . . . . . . 70

    5.2.1 沒有免費午餐定理 . . . . . . . . . . . . . 73

    5.2.2 正則化 . . . . . . . . . . . . . . . . . . . . . . . 74

    5.3 超參數和驗證集. . . . . . . . . . . . . . . . . . .76

    5.3.1 交叉驗證 . . . . . . . . . . . . . . . . . . . . . 76

    5.4 估計、偏差和方差. . . . . . . . . . . . . . . . .77

    5.4.1 點估計 . . . . . . . . . . . . . . . . . . . . . . . 77

    5.4.2 偏差 . . . . . . . . . . . . . . . . . . . . . . . . . 78

    5.4.3 方差和標准差 . . . . . . . . . . . . . . . . . 80

    5.4.4 權衡偏差和方差以最小化均方誤差. . . . . . . . . . 81

    5.4.5 一致性 . . . . . . . . . . . . . . . . . . . . . . . 82

    5.5 最 大似然估計 . . . . . . . . . . . . . . . . . . . . . 82

    5.5.1 條件對數似然和均方誤差. . . . . . .84

    5.5.2 最 大似然的性質 . . . . . . . . . . . . . . . 84

    5.6 貝葉斯統計 . . . . . . . . . . . . . . . . . . . . . . . 85

    5.6.1 最 大后驗 (MAP) 估計 . . . . . . . . . 87

    5.7 監督學習算法 . . . . . . . . . . . . . . . . . . . . . 88

    5.7.1 概率監督學習 . . . . . . . . . . . . . . . . . 88

    5.7.2 支持向量機 . . . . . . . . . . . . . . . . . . . 88

    5.7.3 其他簡單的監督學習算法. . . . . . .90

    5.8 無監督學習算法. . . . . . . . . . . . . . . . . . .91

    5.8.1 主成分分析 . . . . . . . . . . . . . . . . . . . 92

    5.8.2 k-均值聚類 . . . . . . . . . . . . . . . . . . . .94

    5.9 隨機梯度下降 . . . . . . . . . . . . . . . . . . . . . 94

    5.10 構建機器學習算法 . . . . . . . . . . . . . . . 96

    5.11 促使深度學習發展的挑戰 . . . . . . . . 96

    5.11.1 維數災難 . . . . . . . . . . . . . . . . . . . . 97

    5.11.2 局部不變性和平滑正則化 . . . . . 97

    5.11.3 流形學習 . . . . . . . . . . . . . . . . . . . . 99

    第 2 部分 深度網絡:現代實踐

    第 6 章 深度前饋網絡 . . . . . . . . . . . . . . . . . . . 105

    6.1 實例:學習 XOR. . . . . . . . . . . . . . . . . 107

    6.2 基於梯度的學習 . . . . . . . . . . . . . . . . . 110

    6.2.1 代價函數 . . . . . . . . . . . . . . . . . . . . 111

    6.2.2 輸出單元 . . . . . . . . . . . . . . . . . . . . 113

    6.3 隱藏單元. . . . . . . . . . . . . . . . . . . . . . . . .119

    6.3.1 整流線性單元及其擴展 . . . . . . . 120

    6.3.2 logistic sigmoid 與雙曲正切函數. . . . . . . . . . . . 121

    6.3.3 其他隱藏單元 . . . . . . . . . . . . . . . . 122

    6.4 架構設計. . . . . . . . . . . . . . . . . . . . . . . . .123

    6.4.1 萬能近似性質和深度. . . . . . . . . .123

    6.4.2 其他架構上的考慮 . . . . . . . . . . . .126

    6.5 反向傳播和其他的微分算法. . . . . .126

    6.5.1 計算圖 . . . . . . . . . . . . . . . . . . . . . . 127

    6.5.2 微積分中的鏈式法則. . . . . . . . . .128

    6.5.3 遞歸地使用鏈式法則來實現反向傳播 . . . . . . . . . . . . . 128

    6.5.4 全連接 MLP 中的反向傳播計算. . . . . . . . . . . . . . 131

    6.5.5 符號到符號的導數 . . . . . . . . . . . .131

    6.5.6 一般化的反向傳播 . . . . . . . . . . . .133

    6.5.7 實例:用於 MLP 訓練的反向傳播. . . . . . . . . .135

    6.5.8 復雜化 . . . . . . . . . . . . . . . . . . . . . . 137

    6.5.9 深度學習界以外的微分 . . . . . . . 137

    6.5.10 高階微分 . . . . . . . . . . . . . . . . . . . 138

    6.6 歷史小記. . . . . . . . . . . . . . . . . . . . . . . . .139

    第 7 章 深度學習中的正則化 . . . . . . . . . . . . 141

    7.1 參數范數懲罰 . . . . . . . . . . . . . . . . . . . . 142

    7.1.1 L2 參數正則化 . . . . . . . . . . . . . . . 142

    7.1.2 L1 正則化 . . . . . . . . . . . . . . . . . . . 144

    7.2 作為約束的范數懲罰. . . . . . . . . . . . .146

    7.3 正則化和欠約束問題. . . . . . . . . . . . .147

    7.4 數據集增強 . . . . . . . . . . . . . . . . . . . . . . 148

    7.5 噪聲魯棒性 . . . . . . . . . . . . . . . . . . . . . . 149

    7.5.1 向輸出目標注入噪聲. . . . . . . . . .150

    7.6 半監督學習 . . . . . . . . . . . . . . . . . . . . . . 150

    7.7 多任務學習 . . . . . . . . . . . . . . . . . . . . . . 150

    7.8 提前終止. . . . . . . . . . . . . . . . . . . . . . . . .151

    7.9 參數綁定和參數共享. . . . . . . . . . . . .156

    7.9.1 卷積神經網絡 . . . . . . . . . . . . . . . . 156

    7.10 稀疏表示. . . . . . . . . . . . . . . . . . . . . . . .157

    7.11 Bagging 和其他集成方法. . . . . . . .158

    7.12 Dropout . . . . . . . . . . . . . . . . . . . . . . . . .159

    7.13 對抗訓練. . . . . . . . . . . . . . . . . . . . . . . .165

    7.14 切面距離、正切傳播和流形正切分類器. . . . . . . . . . 167

    第 8 章 深度模型中的優化. . . . . . . . . . . . . . .169

    8.1 學習和純優化有什麼不同 . . . . . . . . 169

    8.1.1 經驗風險最小化 . . . . . . . . . . . . . . 169

    8.1.2 代理損失函數和提前終止 . . . . . 170

    8.1.3 批量算法和小批量算法 . . . . . . . 170

    8.2 神經網絡優化中的挑戰 . . . . . . . . . . 173

    8.2.1 病態 . . . . . . . . . . . . . . . . . . . . . . . . 173

    8.2.2 局部極小值 . . . . . . . . . . . . . . . . . . 174

    8.2.3 高原、鞍點和其他平坦區域 . . . .175

    8.2.4 懸崖和梯度爆炸 . . . . . . . . . . . . . . 177

    8.2.5 長期依賴 . . . . . . . . . . . . . . . . . . . . 177

    8.2.6 非精確梯度 . . . . . . . . . . . . . . . . . . 178

    8.2.7 局部和全局結構間的弱對應 . . . 178

    8.2.8 優化的理論限制 . . . . . . . . . . . . . . 179

    8.3 基本算法. . . . . . . . . . . . . . . . . . . . . . . . .180

    8.3.1 隨機梯度下降 . . . . . . . . . . . . . . . . 180

    8.3.2 動量 . . . . . . . . . . . . . . . . . . . . . . . . 181

    8.3.3 Nesterov 動量. . . . . . . . . . . . . . . .183

    8.4 參數初始化策略 . . . . . . . . . . . . . . . . . 184

    8.5 自適應學習率算法 . . . . . . . . . . . . . . . 187

    8.5.1 AdaGrad . . . . . . . . . . . . . . . . . . . 187

    8.5.2 RMSProp . . . . . . . . . . . . . . . . . . . 188

    8.5.3 Adam . . . . . . . . . . . . . . . . . . . . . . . 189

    8.5.4 選擇正確的優化算法. . . . . . . . . .190

    8.6 二階近似方法 . . . . . . . . . . . . . . . . . . . . 190

    8.6.1 牛頓法 . . . . . . . . . . . . . . . . . . . . . . 190

    8.6.2 共軛梯度 . . . . . . . . . . . . . . . . . . . . 191

    8.6.3 BFGS. . . . . . . . . . . . . . . . . . . . . . . 193

    8.7 優化策略和元算法 . . . . . . . . . . . . . . . 194

    8.7.1 批標准化 . . . . . . . . . . . . . . . . . . . . 194

    8.7.2 坐標下降 . . . . . . . . . . . . . . . . . . . . 196

    8.7.3 Polyak 平均 . . . . . . . . . . . . . . . . . 197

    8.7.4 監督預訓練 . . . . . . . . . . . . . . . . . . 197

    8.7.5 設計有助於優化的模型 . . . . . . . 199

    8.7.6 延拓法和課程學習 . . . . . . . . . . . .199

    第 9 章 卷積網絡 . . . . . . . . . . . . . . . . . . . . . . . . 201

    9.1 卷積運算. . . . . . . . . . . . . . . . . . . . . . . . .201

    9.2 動機 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203

    9.3 池化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207

    9.4 卷積與池化作為一種無限強的先驗. . . . . . . . . . . . . 210

    9.5 基本卷積函數的變體. . . . . . . . . . . . .211

    9.6 結構化輸出 . . . . . . . . . . . . . . . . . . . . . . 218

    9.7 數據類型. . . . . . . . . . . . . . . . . . . . . . . . .219

    9.8 高效的卷積算法 . . . . . . . . . . . . . . . . . 220

    9.9 隨機或無監督的特征. . . . . . . . . . . . .220

    9.10 卷積網絡的神經科學基礎 . . . . . . . 221

    9.11 卷積網絡與深度學習的歷史 . . . . 226

    第 10 章 序列建模:循環和遞歸網絡 . . . . 227

    10.1 展開計算圖 . . . . . . . . . . . . . . . . . . . . . 228

    10.2 循環神經網絡 . . . . . . . . . . . . . . . . . . .230

    10.2.1 導師驅動過程和輸出循環網絡 232

    10.2.2 計算循環神經網絡的梯度 . . . . 233

    10.2.3 作為有向圖模型的循環網絡 . . 235

    10.2.4 基於上下文的 RNN 序列建模 237

    10.3 雙向 RNN . . . . . . . . . . . . . . . . . . . . . . 239

    10.4 基於編碼 - 解碼的序列到序列架構. . . . . . 240

    10.5 深度循環網絡 . . . . . . . . . . . . . . . . . . .242

    10.6 遞歸神經網絡 . . . . . . . . . . . . . . . . . . .243

    10.7 長期依賴的挑戰 . . . . . . . . . . . . . . . . 244

    10.8 回聲狀態網絡 . . . . . . . . . . . . . . . . . . .245

    10.9 滲漏單元和其他多時間尺度的策略. . . . . . . . . . . 247

    10.9.1 時間維度的跳躍連接. . . . . . . . .247

    10.9.2 滲漏單元和一系列不同時間尺度. . . . . . . . . . . . 247

    10.9.3 刪除連接 . . . . . . . . . . . . . . . . . . . 248

    10.10 長短期記憶和其他門控 RNN . 248

    10.10.1 LSTM . . . . . . . . . . . . . . . . . . . . 248

    10.10.2 其他門控 RNN. . . . . . . . . . . . .250

    10.11 優化長期依賴. . . . . . . . . . . . . . . . . .251

    10.11.1 截斷梯度 . . . . . . . . . . . . . . . . . . 251

    10.11.2 引導信息流的正則化 . . . . . . . 252

    10.12 外顯記憶 . . . . . . . . . . . . . . . . . . . . . . 253

    第 11 章 實踐方法論 . . . . . . . . . . . . . . . . . . . . 256

    11.1 性能度量. . . . . . . . . . . . . . . . . . . . . . . .256

    11.2 默認的基准模型 . . . . . . . . . . . . . . . . 258

    11.3 決定是否收集更多數據 . . . . . . . . . 259

    11.4 選擇超參數 . . . . . . . . . . . . . . . . . . . . . 259

    11.4.1 手動調整超參數 . . . . . . . . . . . . .259

    11.4.2 自動超參數優化算法. . . . . . . . .262

    11.4.3 網格搜索 . . . . . . . . . . . . . . . . . . . 262

    11.4.4 隨機搜索 . . . . . . . . . . . . . . . . . . . 263

    11.4.5 基於模型的超參數優化 . . . . . . 264

    11.5 調試策略. . . . . . . . . . . . . . . . . . . . . . . .264

    11.6 示例:多位數字識別 . . . . . . . . . . . . 267

    第 12 章 應用. . . . . . . . . . . . . . . . . . . . . . . . . . . .269

    12.1 大規模深度學習 . . . . . . . . . . . . . . . . 269

    12.1.1 快速的 CPU 實現 . . . . . . . . . . . 269

    12.1.2 GPU 實現 . . . . . . . . . . . . . . . . . . 269

    12.1.3 大規模的分布式實現. . . . . . . . .271

    12.1.4 模型壓縮 . . . . . . . . . . . . . . . . . . . 271

    12.1.5 動態結構 . . . . . . . . . . . . . . . . . . . 272

    12.1.6 深度網絡的專用硬件實現 . . . . 273

    12.2 計算機視覺 . . . . . . . . . . . . . . . . . . . . . 274

    12.2.1 預處理 . . . . . . . . . . . . . . . . . . . . . 275

    12.2.2 數據集增強 . . . . . . . . . . . . . . . . . 277

    12.3 語音識別. . . . . . . . . . . . . . . . . . . . . . . .278

    12.4 自然語言處理 . . . . . . . . . . . . . . . . . . .279

    12.4.1 n-gram . . . . . . . . . . . . . . . . . . . . .280

    12.4.2 神經語言模型 . . . . . . . . . . . . . . . 281

    12.4.3 高維輸出 . . . . . . . . . . . . . . . . . . . 282

    12.4.4 結合 n-gram 和神經語言模型 286

    12.4.5 神經機器翻譯 . . . . . . . . . . . . . . . 287

    12.4.6 歷史展望 . . . . . . . . . . . . . . . . . . . 289

    12.5 其他應用. . . . . . . . . . . . . . . . . . . . . . . .290

    12.5.1 推薦系統 . . . . . . . . . . . . . . . . . . . 290

    12.5.2 知識表示、推理和回答 . . . . . . . 292

    第 3 部分 深度學習研究

    第 13 章 線性因子模型 . . . . . . . . . . . . . . . . . . 297

    13.1 概率 PCA 和因子分析 . . . . . . . . . . 297

    13.2 獨立成分分析 . . . . . . . . . . . . . . . . . . .298

    13.3 慢特征分析 . . . . . . . . . . . . . . . . . . . . . 300

    13.4 稀疏編碼. . . . . . . . . . . . . . . . . . . . . . . .301

    13.5 PCA 的流形解釋 . . . . . . . . . . . . . . . 304

    第 14 章 自編碼器 . . . . . . . . . . . . . . . . . . . . . . . 306

    14.1 欠完備自編碼器 . . . . . . . . . . . . . . . . 306

    14.2 正則自編碼器 . . . . . . . . . . . . . . . . . . .307

    14.2.1 稀疏自編碼器 . . . . . . . . . . . . . . . 307

    14.2.2 去噪自編碼器 . . . . . . . . . . . . . . . 309

    14.2.3 懲罰導數作為正則. . . . . . . . . . .309

    14.3 表示能力、層的大小和深度 . . . . . 310

    14.4 隨機編碼器和解碼器. . . . . . . . . . . .310

    14.5 去噪自編碼器詳解 . . . . . . . . . . . . . . 311

    14.5.1 得分估計 . . . . . . . . . . . . . . . . . . . 312

    14.5.2 歷史展望 . . . . . . . . . . . . . . . . . . . 314

    14.6 使用自編碼器學習流形 . . . . . . . . . 314

    14.7 收縮自編碼器 . . . . . . . . . . . . . . . . . . .317

    14.8 預測稀疏分解 . . . . . . . . . . . . . . . . . . .319

    14.9 自編碼器的應用 . . . . . . . . . . . . . . . . 319

    第 15 章 表示學習 . . . . . . . . . . . . . . . . . . . . . . . 321

    15.1 貪心逐層無監督預訓練 . . . . . . . . . 322

    15.1.1 何時以及為何無監督預訓練有效有效. . . . . . 323

    15.2 遷移學習和領域自適應 . . . . . . . . . 326

    15.3 半監督解釋因果關系. . . . . . . . . . . .329

    15.4 分布式表示 . . . . . . . . . . . . . . . . . . . . . 332

    15.5 得益於深度的指數增益 . . . . . . . . . 336

    15.6 提供發現潛在原因的線索 . . . . . . . 337

    第 16 章 深度學習中的結構化概率模型 . 339

    16.1 非結構化建模的挑戰. . . . . . . . . . . .339

    16.2 使用圖描述模型結構. . . . . . . . . . . .342

    16.2.1 有向模型 . . . . . . . . . . . . . . . . . . . 342

    16.2.2 無向模型 . . . . . . . . . . . . . . . . . . . 344

    16.2.3 配分函數 . . . . . . . . . . . . . . . . . . . 345

    16.2.4 基於能量的模型 . . . . . . . . . . . . .346

    16.2.5 分離和 d-分離 . . . . . . . . . . . . . . .347

    16.2.6 在有向模型和無向模型中轉換 350

    16.2.7 因子圖 . . . . . . . . . . . . . . . . . . . . . 352

    16.3 從圖模型中采樣 . . . . . . . . . . . . . . . . 353

    16.4 結構化建模的優勢 . . . . . . . . . . . . . . 353

    16.5 學習依賴關系 . . . . . . . . . . . . . . . . . . .354

    16.6 推斷和近似推斷 . . . . . . . . . . . . . . . . 354

    16.7 結構化概率模型的深度學習方法. . . . . . . . . . . .355

    16.7.1 實例:受限玻爾茲曼機 . . . . . . . 356

    第 17 章 蒙特卡羅方法 . . . . . . . . . . . . . . . . . . 359

    17.1 采樣和蒙特卡羅方法. . . . . . . . . . . .359

    17.1.1 為什麼需要采樣 . . . . . . . . . . . . .359

    17.1.2 蒙特卡羅采樣的基礎. . . . . . . . .359

    17.2 重要采樣. . . . . . . . . . . . . . . . . . . . . . . .360

    17.3 馬爾可夫鏈蒙特卡羅方法 . . . . . . . 362

    17.4 Gibbs 采樣. . . . . . . . . . . . . . . . . . . . . .365

    17.5 不同的峰值之間的混合挑戰 . . . . 365

    17.5.1 不同峰值之間通過回火來混合 367

    17.5.2 深度也許會有助於混合 . . . . . . 368

    第 18 章 直面配分函數 . . . . . . . . . . . . . . . . . . 369

    18.1 對數似然梯度 . . . . . . . . . . . . . . . . . . .369

    18.2 隨機最 大似然和對比散度 . . . . . . . 370

    18.3 偽似然 . . . . . . . . . . . . . . . . . . . . . . . . . . 375

    18.4 得分匹配和比率匹配. . . . . . . . . . . .376

    18.5 去噪得分匹配 . . . . . . . . . . . . . . . . . . .378

    18.6 噪聲對比估計 . . . . . . . . . . . . . . . . . . .378

    18.7 估計配分函數 . . . . . . . . . . . . . . . . . . .380

    18.7.1 退火重要采樣 . . . . . . . . . . . . . . . 382

    18.7.2 橋式采樣 . . . . . . . . . . . . . . . . . . . 384

    第 19 章 近似推斷 . . . . . . . . . . . . . . . . . . . . . . . 385

    19.1 把推斷視作優化問題. . . . . . . . . . . .385

    19.2 期望最 大化 . . . . . . . . . . . . . . . . . . . . . 386

    19.3 最 大后驗推斷和稀疏編碼 . . . . . . . 387

    19.4 變分推斷和變分學習. . . . . . . . . . . .389

    19.4.1 離散型潛變量 . . . . . . . . . . . . . . . 390

    19.4.2 變分法 . . . . . . . . . . . . . . . . . . . . . 394

    19.4.3 連續型潛變量 . . . . . . . . . . . . . . . 396

    19.4.4 學習和推斷之間的相互作用 . . 397

    19.5 學成近似推斷 . . . . . . . . . . . . . . . . . . .397

    19.5.1 醒眠算法 . . . . . . . . . . . . . . . . . . . 398

    19.5.2 學成推斷的其他形式. . . . . . . . .398

    第 20 章 深度生成模型 . . . . . . . . . . . . . . . . . . 399

    20.1 玻爾茲曼機 . . . . . . . . . . . . . . . . . . . . . 399

    20.2 受限玻爾茲曼機 . . . . . . . . . . . . . . . . 400

    20.2.1 條件分布 . . . . . . . . . . . . . . . . . . . 401

    20.2.2 訓練受限玻爾茲曼機. . . . . . . . .402

    20.3 深度信念網絡 . . . . . . . . . . . . . . . . . . .402

    20.4 深度玻爾茲曼機 . . . . . . . . . . . . . . . . 404

    20.4.1 有趣的性質 . . . . . . . . . . . . . . . . . 406

    20.4.2 DBM 均勻場推斷 . . . . . . . . . . . 406

    20.4.3 DBM 的參數學習 . . . . . . . . . . . 408

    20.4.4 逐層預訓練 . . . . . . . . . . . . . . . . . 408

    20.4.5 聯合訓練深度玻爾茲曼機 . . . . 410

    20.5 實值數據上的玻爾茲曼機 . . . . . . . 413

    20.5.1 Gaussian-Bernoulli RBM . . . . 413

    20.5.2 條件協方差的無向模型 . . . . . . 414

    20.6 卷積玻爾茲曼機 . . . . . . . . . . . . . . . . 417

    20.7 用於結構化或序列輸出的玻爾茲曼機. . . . . . . . 418

    20.8 其他玻爾茲曼機 . . . . . . . . . . . . . . . . 419

    20.9 通過隨機操作的反向傳播 . . . . . . . 419

    20.9.1 通過離散隨機操作的反向傳播 420

    20.10 有向生成網絡. . . . . . . . . . . . . . . . . .422

    20.10.1 sigmoid 信念網絡 . . . . . . . . . . 422

    20.10.2 可微生成器網絡 . . . . . . . . . . . .423

    20.10.3 變分自編碼器 . . . . . . . . . . . . . .425

    20.10.4 生成式對抗網絡 . . . . . . . . . . . .427

    20.10.5 生成矩匹配網絡 . . . . . . . . . . . .429

    20.10.6 卷積生成網絡 . . . . . . . . . . . . . .430

    20.10.7 自回歸網絡 . . . . . . . . . . . . . . . . 430

    20.10.8 線性自回歸網絡 . . . . . . . . . . . .430

    20.10.9 神經自回歸網絡 . . . . . . . . . . . .431

    20.10.10 NADE . . . . . . . . . . . . . . . . . . . 432

    20.11 從自編碼器采樣 . . . . . . . . . . . . . . . 433

    20.11.1 與任意去噪自編碼器相關的馬爾可夫鏈 . . . . . . 434

    20.11.2 夾合與條件采樣 . . . . . . . . . . . .434

    20.11.3 回退訓練過程 . . . . . . . . . . . . . .435

    20.12 生成隨機網絡. . . . . . . . . . . . . . . . . .435

    20.12.1 判別性 GSN . . . . . . . . . . . . . . . 436

    20.13 其他生成方案. . . . . . . . . . . . . . . . . .436

    20.14 評估生成模型. . . . . . . . . . . . . . . . . .437

    20.15 結論 . . . . . 438

    參考文獻. . . . . . . . . . . . .439

    索引 . . . . . . . . . . . . . . . . . 486

    [內容簡介] (出版商制式文字, 不論標題或內容簡介是否有標示, 請都以『沒有附件、沒有贈品』為參考。)

    由全球知名的三位專家Ian Goodfellow、Yoshua Bengio 和Aaron Courville撰寫,是深度學習領域奠基性的經典教材。

    全書包括3個部分:第1部分介紹基本的數學工具和機器學習的概念,它們是深度學習的預備 知識;第2部分系統深入地講解現今已成熟的深度學習方法和技術;第3部分討論某些具有前瞻性的方向和想法,它們被公認為是深度學習未來的研究重點。

    《深度學習》適合各類讀者閱讀,包括相關專業的大學生或研究生,以及不具有機器學習或統計背景、但是想要快速補充深度學習知識,以便在實際產品或平台中應用的軟件工程師。

    Ian Good fellow,谷歌公司(Google) 的研究科學家,2014 年蒙特利爾大學機器學習博士。他的研究興趣涵蓋大多數深度學習主題,特別是生成模型以及機器學習的安全和隱私。Ian Good fellow 在研究對抗樣本方面是一位有影響力的早期研究者,他發明了生成式對抗網絡,在深度學習領域貢獻卓越。

    Yoshua Bengio,蒙特利爾大學計算機科學與運籌學系(DIRO) 的教授,蒙特利爾學習算法研究所(MILA) 的負責人,CIFAR 項目的共同負責人,加拿大統計學習算法研究主席。Yoshua Bengio 的主要研究目標是了解產生智力的學習原則。他還教授「機器學習」研究生課程(IFT6266),並培養了一大批研究生和博士后。

    Aaron Courville,蒙特利爾大學計算機科學與運籌學系的助理教授,也是LISA 實驗室的成員。目前他的研究興趣集中在發展深度學習模型和方法,特別是開發概率模型和新穎的推斷方法。Aaron Courville 主要專注於計算機視覺應用,在其他領域,如自然語言處理、音頻信號處理、語音理解和其他AI 相關任務方面也有所研究。)

    -----------------------------------------------------------

    分享閱讀 書籍狀態請詳看圖示



    ■客服電話服務時間:

     

    敝店客服電話 (02) 85316044

    服務時間為 週一至週五 09:00-12:00 及 13:00-17:00 例假與國定假日公休

    其餘時間請使用線上留言留下您的訂單資料與疑問 。

    由於敝店為多平臺同步販售,來電請務必告知為書寶官方書城買家以節省您的寶貴時間,謝謝您。



  3.  

書寶二手書店 版權所有 © 2016 SPBOOK All Right Reserved

忘記密碼

請稍候