五月天青色头像情侣网名,国产亚洲av片在线观看18女人,黑人巨茎大战俄罗斯美女,扒下她的小内裤打屁股

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

深度學(xué)習(xí)模式與實(shí)踐

2023-07-23 11:24 作者:劉姥姥看人間  | 我要投稿

鏈接:https://pan.baidu.com/s/1IaVceWQbPIlgg3t1tRudgA?pwd=7s4x?

提取碼:7s4x

《深度學(xué)習(xí)模式與實(shí)踐》通過(guò)介紹最佳實(shí)踐、設(shè)計(jì)模式和可復(fù)制的架構(gòu),指導(dǎo)讀者的深度學(xué)習(xí)項(xiàng)目從實(shí)驗(yàn)室走向應(yīng)用。本書(shū)收集并闡明了近十年來(lái)真實(shí)世界中深度學(xué)習(xí)最緊密的洞察。讀者將通過(guò)每個(gè)有趣的例子學(xué)習(xí)相關(guān)技能,并建立信心。

《深度學(xué)習(xí)模式與實(shí)踐》深入研究了如何構(gòu)建成功的深度學(xué)習(xí)應(yīng)用程序。通過(guò)將經(jīng)過(guò)驗(yàn)證的模式和實(shí)踐應(yīng)用到自身項(xiàng)目中,讀者將節(jié)省數(shù)小時(shí)的試錯(cuò)時(shí)間。本書(shū)通過(guò)測(cè)試的代碼示例、真實(shí)世界示例和出色的敘事風(fēng)格,使復(fù)雜的概念變得簡(jiǎn)單和有趣。在此過(guò)程中,讀者將學(xué)會(huì)相關(guān)技巧來(lái)部署、測(cè)試和維護(hù)項(xiàng)目。

本書(shū)的內(nèi)容包括:

現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)

CNN架構(gòu)的設(shè)計(jì)模式

移動(dòng)和物聯(lián)網(wǎng)設(shè)備模型

大規(guī)模模型部署

計(jì)算機(jī)視覺(jué)示例


作者簡(jiǎn)介

Andrew Ferlitsch是谷歌云人工智能開(kāi)發(fā)者關(guān)系部的一名專(zhuān)家,領(lǐng)域?yàn)橛?jì)算機(jī)視覺(jué)、深度學(xué)習(xí)和在應(yīng)用中操作機(jī)器學(xué)習(xí)。

目錄

第Ⅰ部分 深度學(xué)習(xí)基礎(chǔ)知識(shí)

第1章 現(xiàn)代機(jī)器學(xué)習(xí)的設(shè)計(jì) 3

1.1 關(guān)注適應(yīng)性 4

1.1.1 計(jì)算機(jī)視覺(jué)引領(lǐng)潮流 4

1.1.2 超越計(jì)算機(jī)視覺(jué):NLP、NLU和結(jié)構(gòu)化數(shù)據(jù) 5

1.2 機(jī)器學(xué)習(xí)方法的演變 6

1.2.1 經(jīng)典人工智能與狹義人工智能 6

1.2.2 計(jì)算機(jī)學(xué)習(xí)的未來(lái) 8

1.3 設(shè)計(jì)模式的好處 13

1.4 本章小結(jié) 14

第2章 深度神經(jīng)網(wǎng)絡(luò) 15

2.1 神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 15

2.1.1 輸入層 15

2.1.2 深度神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 17

2.1.3 前饋網(wǎng)絡(luò) 18

2.1.4 序貫式API方法 18

2.1.5 函數(shù)式API方法 19

2.1.6 輸入形狀與輸入層 19

2.1.7 致密層 20

2.1.8 激活函數(shù) 21

2.1.9 速記語(yǔ)法 24

2.1.10 使用優(yōu)化器提高準(zhǔn)確度 25

2.2 DNN二元分類(lèi)器 26

2.3 DNN多類(lèi)分類(lèi)器 28

2.4 DNN多標(biāo)簽多類(lèi)分類(lèi)器 29

2.5 簡(jiǎn)單圖像分類(lèi)器 31

2.5.1 展平 32

2.5.2 過(guò)擬合和丟棄 33

2.6 本章小結(jié) 35

第3章 卷積神經(jīng)網(wǎng)絡(luò)和殘差神經(jīng)網(wǎng)絡(luò) 37

3.1 卷積神經(jīng)網(wǎng)絡(luò) 37

3.1.1 為什么在DNN的基礎(chǔ)上對(duì)圖像模型使用CNN 38

3.1.2 下采樣(調(diào)整大小) 38

3.1.3 特征檢測(cè) 39

3.1.4 池化 41

3.1.5 展平 42

3.2 CNN的ConvNet設(shè)計(jì) 43

3.3 VGG網(wǎng)絡(luò) 46

3.4 ResNet網(wǎng)絡(luò) 49

3.4.1 架構(gòu) 49

3.4.2 批標(biāo)準(zhǔn)化 54

3.4.3 ResNet50 55

3.5 本章小結(jié) 59

第4章 訓(xùn)練基礎(chǔ)知識(shí) 61

4.1 前饋和反向傳播 61

4.1.1 饋送 62

4.1.2 反向傳播 62

4.2 拆分?jǐn)?shù)據(jù)集 64

4.2.1 訓(xùn)練集和測(cè)試集 64

4.2.2 獨(dú)熱編碼 65

4.3 數(shù)據(jù)歸一化 67

4.3.1 歸一化 67

4.3.2 標(biāo)準(zhǔn)化 69

4.4 驗(yàn)證和過(guò)擬合 69

4.4.1 驗(yàn)證 69

4.4.2 損失監(jiān)控 73

4.4.3 深入層中 73

4.5 收斂 74

4.6 設(shè)置檢查點(diǎn)和早停法 77

4.6.1 設(shè)置檢查點(diǎn) 77

4.6.2 早停法 78

4.7 超參數(shù) 79

4.7.1 時(shí)期數(shù) 80

4.7.2 步數(shù) 80

4.7.3 批大小 81

4.7.4 學(xué)習(xí)率 82

4.8 不變性 84

4.8.1 平移不變性 85

4.8.2 尺度不變性 91

4.8.3 TF.Keras的ImageDataGenerator類(lèi) 93

4.9 初始(磁盤(pán))數(shù)據(jù)集 94

4.9.1 目錄結(jié)構(gòu) 95

4.9.2 CSV文件 97

4.9.3 JSON文件 98

4.9.4 讀取圖像 98

4.9.5 調(diào)整大小 101

4.10 模型保存/恢復(fù) 102

4.10.1 保存 103

4.10.2 恢復(fù) 103

4.11 本章小結(jié) 104

第Ⅱ部分 基本設(shè)計(jì)模式

第5章 過(guò)程設(shè)計(jì)模式 107

5.1 基本的神經(jīng)網(wǎng)絡(luò)架構(gòu) 108

5.2 stem組件 110

5.2.1 VGG 110

5.2.2 ResNet 111

5.2.3 ResNeXt 115

5.2.4 Xception 116

5.3 預(yù)stem 117

5.4 學(xué)習(xí)器組件 118

5.4.1 ResNet 119

5.4.2 DenseNet 121

5.5 任務(wù)組件 123

5.5.1 ResNet 124

5.5.2 多層輸出 125

5.5.3 SqueezeNet 127

5.6 超越計(jì)算機(jī)視覺(jué):自然語(yǔ)言處理 128

5.6.1 自然語(yǔ)言理解 128

5.6.2 Transformer架構(gòu) 129

5.7 本章小結(jié) 130

第6章 寬卷積神經(jīng)網(wǎng)絡(luò) 131

6.1 Inception v1 132

6.1.1 原生inception模塊 132

6.1.2 Inception v1模塊 134

6.1.3 stem 136

6.1.4 學(xué)習(xí)器 137

6.1.5 輔助分類(lèi)器 137

6.1.6 分類(lèi)器 139

6.2 Inception v2:卷積分解 140

6.3 Inception v3:重新設(shè)計(jì)架構(gòu) 142

6.3.1 Inception組和塊 143

6.3.2 普通卷積 146

6.3.3 空間可分離卷積 147

6.3.4 stem重設(shè)計(jì)和實(shí)現(xiàn) 148

6.3.5 輔助分類(lèi)器 149

6.4 ResNeXt:寬殘差神經(jīng)網(wǎng)絡(luò) 150

6.4.1 ResNeXt塊 150

6.4.2 ResNeXt架構(gòu) 152

6.5 寬殘差網(wǎng)絡(luò) 153

6.5.1 WRN-50-2架構(gòu) 154

6.5.2 寬殘差塊 154

6.6 超越計(jì)算機(jī)視覺(jué):結(jié)構(gòu)化數(shù)據(jù) 155

6.7 本章小結(jié) 157

第7章 可替代連接模式 159

7.1 DenseNet:致密連接的卷積神經(jīng)網(wǎng)絡(luò) 160

7.1.1 致密組 160

7.1.2 致密塊 162

7.1.3 DenseNet宏觀架構(gòu) 164

7.1.4 致密過(guò)渡塊 165

7.2 Xception 166

7.2.1 Xception架構(gòu) 167

7.2.2 Xception的入口流 169

7.2.3 Xception的中間流 171

7.2.4 Xception的出口流 173

7.2.5 深度可分離卷積 175

7.2.6 逐深度卷積 175

7.2.7 逐點(diǎn)卷積 175

7.3 SE-Net 176

7.3.1 SE-Net架構(gòu) 177

7.3.2 SE-Net的組和塊 177

7.3.3 SE鏈接 179

7.4 本章小結(jié) 180

第8章 移動(dòng)卷積神經(jīng)網(wǎng)絡(luò) 181

8.1 MobileNet v1 182

8.1.1 架構(gòu) 182

8.1.2 寬度乘數(shù) 183

8.1.3 分辨率乘數(shù) 184

8.1.4 stem 185

8.1.5 學(xué)習(xí)器 186

8.1.6 分類(lèi)器 188

8.2 MobileNet v2 189

8.2.1 架構(gòu) 189

8.2.2 stem 190

8.2.3 學(xué)習(xí)器 191

8.2.4 分類(lèi)器 194

8.3 SqueezeNet 195

8.3.1 架構(gòu) 196

8.3.2 stem 197

8.3.3 學(xué)習(xí)器 197

8.3.4 分類(lèi)器 200

8.3.5 旁路連接 202

8.4 ShuffleNet v1 205

8.4.1 架構(gòu) 205

8.4.2 stem 206

8.4.3 學(xué)習(xí)器 206

8.5 部署 213

8.5.1 量化 213

8.5.2 TF Lite轉(zhuǎn)換和預(yù)測(cè) 214

8.6 本章小結(jié) 216

第9章 自動(dòng)編碼器 217

9.1 深度神經(jīng)網(wǎng)絡(luò)自動(dòng)編碼器 217

9.1.1 自動(dòng)編碼器架構(gòu) 218

9.1.2 編碼器 219

9.1.3 解碼器 219

9.1.4 訓(xùn)練 220

9.2 卷積自動(dòng)編碼器 221

9.2.1 架構(gòu) 222

9.2.2 編碼器 222

9.2.3 解碼器 223

9.3 稀疏自動(dòng)編碼器 225

9.4 去噪自動(dòng)編碼器 226

9.5 超分辨率 226

9.5.1 預(yù)上采樣SR 227

9.5.2 后上采樣SR 229

9.6 前置任務(wù) 232

9.7 超越計(jì)算機(jī)視覺(jué):Seq2Seq模型 234

9.8 本章小結(jié) 235

第Ⅲ部分 使用管線(xiàn)

第10章 超參數(shù)調(diào)優(yōu) 239

10.1 權(quán)重初始化 240

10.1.1 權(quán)重分布 241

10.1.2 彩票假設(shè) 241

10.1.3 預(yù)熱(數(shù)值穩(wěn)定性) 243

10.2 超參數(shù)搜索基礎(chǔ)知識(shí) 246

10.2.1 超參數(shù)搜索的手動(dòng)方法 246

10.2.2 網(wǎng)格搜索 248

10.2.3 隨機(jī)搜索 248

10.2.4 KerasTuner 250

10.3 學(xué)習(xí)率調(diào)度器 252

10.3.1 Keras衰減參數(shù) 253

10.3.2 Keras學(xué)習(xí)率調(diào)度器 253

10.3.3 Ramp 254

10.3.4 恒定步長(zhǎng) 255

10.3.5 余弦退火 256

10.4 正則化 258

10.4.1 權(quán)重正則化 258

10.4.2 標(biāo)簽平滑 259

10.5 超越計(jì)算機(jī)視覺(jué) 260

10.6 本章小結(jié) 261

第11章 遷移學(xué)習(xí) 263

11.1 TF.Keras預(yù)構(gòu)建模型 264

11.1.1 基礎(chǔ)模型 265

11.1.2 用于預(yù)測(cè)的預(yù)訓(xùn)練ImageNet模型 266

11.1.3 新分類(lèi)器 267

11.2 TF Hub預(yù)構(gòu)建模型 271

11.2.1 使用TF Hub預(yù)訓(xùn)練模型 271

11.2.2 新分類(lèi)器 273

11.3 域間的遷移學(xué)習(xí) 274

11.3.1 類(lèi)似的任務(wù) 274

11.3.2 不同的任務(wù) 275

11.3.3 特定域權(quán)重 278

11.3.4 域遷移權(quán)重初始化 279

11.3.5 負(fù)遷移 281

11.4 超越計(jì)算機(jī)視覺(jué) 281

11.5 本章小結(jié) 281

第12章 數(shù)據(jù)分布 283

12.1 分布類(lèi)型 284

12.1.1 總體分布 284

12.1.2 抽樣分布 285

12.1.3 子總體分布 286

12.2 分布外樣本 286

12.2.1 MNIST精選數(shù)據(jù)集 287

12.2.2 建立環(huán)境 287

12.2.3 挑戰(zhàn)分布外數(shù)據(jù) 288

12.2.4 作為DNN進(jìn)行訓(xùn)練 289

12.2.5 作為CNN進(jìn)行訓(xùn)練 294

12.2.6 圖像增強(qiáng) 297

12.2.7 最終測(cè)試 299

12.3 本章小結(jié) 299

第13章 數(shù)據(jù)管線(xiàn) 301

13.1 數(shù)據(jù)格式和存儲(chǔ) 303

13.1.1 壓縮圖像格式和原始圖像格式 303

13.1.2 HDF5格式 306

13.1.3 DICOM格式 310

13.1.4 TFRecord格式 311

13.2 數(shù)據(jù)饋送 316

13.2.1 NumPy 316

13.2.2 TFRecord 318

13.3 數(shù)據(jù)預(yù)處理 320

13.3.1 使用預(yù)stem進(jìn)行預(yù)處理 320

13.3.2 使用TF Extended進(jìn)行預(yù)處理 327

13.4 數(shù)據(jù)增強(qiáng) 332

13.4.1 不變性 332

13.4.2 使用tf.data進(jìn)行增強(qiáng) 334

13.4.3 預(yù)stem 335

13.5 本章小結(jié) 335

查看全部↓

前言/序言

本書(shū)讀者對(duì)象

歡迎閱讀本書(shū)。本書(shū)主要面向軟件工程師、機(jī)器學(xué)習(xí)工程師以及初級(jí)、中級(jí)和高級(jí)數(shù)據(jù)科學(xué)家。本書(shū)的結(jié)構(gòu)較為合理,相信每一位讀者都能有所收獲并進(jìn)一步了解深度學(xué)習(xí)。

本書(shū)也可以說(shuō)是專(zhuān)為具有一定水平的機(jī)器學(xué)習(xí)工程師和數(shù)據(jù)科學(xué)家設(shè)計(jì)的。對(duì)于那些追求數(shù)據(jù)科學(xué)方向的人,我建議你們補(bǔ)充學(xué)習(xí)統(tǒng)計(jì)學(xué)相關(guān)的內(nèi)容。此外,本書(shū)還要求讀者至少了解Python的基礎(chǔ)知識(shí)。


深度學(xué)習(xí)模式與實(shí)踐的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
伊通| 通江县| 濮阳县| 区。| 青河县| 颍上县| 固阳县| 奇台县| 蓬溪县| 元氏县| 元谋县| 鸡泽县| 通州区| 高陵县| 青海省| 什邡市| 刚察县| 马山县| 永新县| 贺兰县| 盐源县| 旌德县| 常宁市| 专栏| 偃师市| 东城区| 阳东县| 股票| 长岛县| 蕲春县| 宿州市| 卫辉市| 桓仁| 固镇县| 石城县| 平湖市| 玉田县| 双鸭山市| 吴堡县| 闵行区| 保亭|