谢邀。先给结论:以我写了两三年pytorch
代码的经验而言,比较好的顺序是先写model
,再写dataset
,最后写train
。
在讨论码组件的具体顺序前,我们先分析每一个组件背后的目的和逻辑。
model
构成了整个深度学习训练与推断系统骨架,也确定了整个AI模型的输入和输出格式。对于视觉任务,模型架构多为卷积神经网络或是最新的ViT
模型;对于NLP任务,模型架构多为Transformer
以及Bert
;对于时间序列预测,模型架构多为RNN
或LSTM
。不同的model
对应了不同的数据输入格式,如ResNet
一般是输入多通道二维矩阵,而ViT
则需要输入带有位置信息的图像patchs。确定了用什么样的model
后,数据的输入格式也就确定下来。根据确定的输入格式,我们才能构建对应的dataset
。
dataset
构建了整个AI模型的输入与输出格式。在写作dataset
组件时,我们需要考虑数据的存储位置与存储方式,如数据是否是分布式存储的,模型是否要在多机多卡的情况下运行,读写速度是否存在瓶颈,如果机械硬盘带来了读写瓶颈则需要将数据预加载进内存等。在写dataset
组件时,我们也要反向微调model
组件。例如,确定了分布式训练的数据读写后,需要用nn.DataParallel
或者nn.DistributedDataParallel
等模块包裹model
,使模型能够在多机多卡上运行。此外,dataset
组件的写作也会影响训练策略,这也为构建train
组件做了铺垫。比如根据显存大小,我们需要确定相应的BatchSize,而BatchSize则直接影响学习率的大小。再比如根据数据的分布情况,我们需要选择不同的采样策略进行Feature Balance,而这也会体现在训练策略中。
train
构建了模型的训练策略以及评估方法,它是最重要也是最复杂的组件。先构建model
与dataset
可以添加限制,减少train
组件的复杂度。在train
组件中,我们需要根据训练环境(单机多卡,多机多卡或是联邦学习)确定模型更新的策略,以及确定训练总时长epochs
,优化器的类型,学习率的大小与衰减策略,参数的初始化方法,模型损失函数。此外,为了对抗过拟合,提升泛化性,还需要引入合适的正则化方法,如Dropout
,BatchNorm
,L2-Regularization
,Data Augmentation
等。有些提升泛化性能的方法可以直接在train
组件中实现(如添加L2-Reg
,Mixup
),有些则需要添加进model
中(如Dropout
与BatchNorm
),还有些需要添加进dataset
中(如Data Augmentation
)。此处安利一下我们的专栏教程:数据增广的方法与代码实现。
此外,train
还需要记录训练过程的一些重要信息,并将这些信息可视化出来,比如在每个epoch上记录训练集的平均损失以及测试集精度,并将这些信息写入tensorboard
,然后在网页端实时监控。在构建train
组件中,我们需要随时根据模型表现进行参数微调,并根据结果改进model
和dataset
两个组件。
最后,我想分享两个我们组自己编写的,给新同学上手使用的深度学习Project。它们都采用model
-dataset
-train
的顺序进行构建,实现了单机多卡,联邦学习等训练环境:
ps:收藏的同时麻烦点个赞吧,谢谢hxdm!
这个问题问得很好啊,我的建议是看今年年会的摘要集:
中国化学会第32届学术年会 - 论文检索系统 - 中国化学会
可以看到有很多分会,不过计算化学分布得比较散,夹杂在各个分会中。各分会的主题可以从这里找到,可能相关的包括:
有一些主题是理论计算夹杂着实验的,还需要仔细辨别。回到摘要集,以第一分会为例:
中国化学会第32届学术年会摘要集-第一分会:物理化学前沿 - 论文检索系统 - 中国化学会
可以看到题目和单位全都标出来了,而且还可以下载。
显然,能找到相关方向的摘要的单位,就是开设了相关方向的院校,甚至还能精确到具体的某个课题组。