image.png

《2021PyTorch深度学习实战》价值1439元,九天与菜菜联合打造。使用PyTorch新兴技术框架快速、高效,0基础入门深度学习,常用神经网络模型全领域覆盖。课程60+小时精录课程0基础入门,五大课程模块,全面覆盖深度学习基础、计算机视觉(CV)、自然语言处理(NLP)以及深度学习前沿应用(包括强化学习、对抗网络以及图神经网络) PyTorch+Kaggle,重在实践,学练一体。

全面采用新兴深度学习技术框架PyTorch,门槛更低效率更高,丰富案例实操以实际需求出发,着重培养深度学习领域所需的工程能力,实现从理论到生产的实践过程。

会员路径:0000-139

课程目录:

image.png

.........................

image.png

73_16.17 ResNet的复现 (3):完整的残差网络.mp4

1.08G

72_16.17 ResNet的复现 (2) :卷积块、残差块、瓶颈架构.mp4

1G

71_16.17 ResNet的复现 (1) :架构中的陷阱.mp4

461.9M

70_16.16 残差网络:思想与具体架构.mp4

554.1M

69_16.15 GoogLeNet的复现.mp4

1008.9M

68_16.14 GoogLeNet:思想与具体架构.mp4

739.9M

67_1613全局平均池化,NiN网络的复现.mp4

86.2M

66_16.12全连接层的参数,用nn. Sequential复现VGG16.mp4

103.1M

65_16.11分组卷积与深度可分离卷积.mp4

67.7M

64_1610卷积层的参数量计算,1x1卷积核.mp4

64.7M

63_16.9平移不变性.mp4

101.4M

62_168感受野(下)_膨胀卷积,计算感受野大小.mp4

101.4M

61_168感受野(上)_定义与性质.mp4

96.9M

60_167如何拓展网络深度_vGG架构.mp4

91.6M

59_16.6复现经典架构(2)_ Alexnet.mp4

117.6M

58_166复现经典架构(1)_ Lenet5.mp4

64.3M

57_16.5在 Pytorch中实现卷积网络(下)_池化层,BN与Dropout.mp4

76.9M

56_16.5在 Pytorch中实现卷积网络(中)_步长与填充.mp4

119.3M

55_16.5在 Pytorch中实现卷积网络(上)_卷积核、输入通道与特征图.mp4

74.7M

54_164卷积遇见深度学习.mp4

47.1M

53_163卷积操作与边缘检测.mp4

63.6M

52_162图像的基本操作.mp4

117M

51_16.1配置环境,计算机视觉行业综述.mp4

91.2M

50_152学习率调度在 Pytorch中的实现方法.mp4

147.5M

49_15.1学习率调度基本概念与手动实现方法.mp4

152M

48_14.3 Batchnormalization综合调参实战.mp4

161.7M

47_14.2 Batch Normalization在 Pytorch中的实现.mp4

205.4M

46_14.1数据归一化与 Batchnormalization基础理论.mp4

211.7M

45_13.5 Xavier方法与 kaiming方法(HE初始化).mp4

200.5M

44_13.4 Deadreluproblen与学习率优化.mp4

130.9M

43_13.3梯度不平稳性与 Glorot条件(3).mp4

87.1M

42_13.3梯度不平稳性与 Glorot条件(2).mp4

81M

41_13.3梯度不平稳性与 Glorot条件(1).mp4

108.7M

40_13【加餐】损失函数的随机创建现象详解.mp4

62.6M

39_13.2模型拟合度概念介绍与欠拟合模型的结构调整策略.mp4

237.5M

38_13.1深度学习建模目标与性能评估理论.mp4

202.4M

37_125 softmax回归建模实验.mp4

168.1M

36_124逻辑回归建模实验.mp4

129.2M

35_12.3线性回归建模实验.mp4

104.3M

34_122可视化工具 Tensorboard的安装与使用.mp4

72.5M

33_12.1深度学习建模实验中数据集生成函数的创建与使用.mp4

217.2M

32_12.0深度学习基础网络手动搭建与快速实现.mp4

36.4M

31_11.5在 Fashion-MNST上实现完整的神经网络(下).mp4

145.9M

30_11.5在 Fashion-MNST数据集上实现完整的神经网络(上).mp4

73.9M

29_11.4开始迭代_ batch与 epochs.mp4

93.6M

28_11.3走出第一步_动量法 Momentum.mp4

108.1M

27_112(2)反向传播的实现.mp4

62.5M

26_112(1)反向传播的原理.mp4

83.2M

25_11.1梯度下降中的两个关键问题.mp4

92.9M

24_10.3多分类交叉熵的原理与实现.mp4

96.7M

23_10.2二分类交叉熵的原理与实现.mp4

59.1M

22_10.15sE与二分类交叉熵损失.mp4

103.7M

21_9.5从0实现深度神经网络的正向传播.mp4

155.2M

20_9.3&94层与激活函数.mp4

51.5M

19_92黑箱_深度神经网络的不可解释性.mp4

73.7M

18_9.1从异或门问题认识多层神经网结.mp4

119.9M

17_8.5多分类神经网络.mp4

78.4M

16_8.4 torch. nn. functiona实现单层二分类网络的正向传播.mp4

33.5M

15_8.3二分类神经网络的原理与实现.mp4

79.5M

14_8.2 torch. nn. Linear实现单层回归网络的正向传播.mp4

47.1M

13_8.1单层回归神经网络& Tensor新手避坑指南.mp4

115M

12_7.3深入理解 Pytorch框架.mp4

57.4M

11_7.2机器学习中的基本概念.mp4

96.1M

10_7.1神经网络的诞生与发展.mp4

86.4M

09_6动态计算图与梯度下降入门.mp4

203.5M

08_5基本优化方法与最小二乘法.mp4

223M

07_4张量的线性代数运算.mp4

164.6M

06_3张量的广播和科学运算.mp4

128.7M

05_2张量的索引、分片、合并及维度调整.mp4

128.1M

04_1张量的创建与常用方法.mp4

160.6M

03_0.3 Pytorch安装与配置(GPU版本).mp4

58M

02_02 Torch安装与部署(CPU版本).mp4

38.8M

01_0.1GPU购买与GPU白嫖指南.mp4

66.4M