前言这里收藏些不错的开源学习项目, 比如NLP等清单NLP:项目1:地址: https://github...
前言这里用来记录下使用过的部分损失的计算过程以及含义.交叉熵损失交叉熵损失(Cross-Entropy ...
前言在CV领域, 已经证明了预训练模型对于模型加速收敛或者取得更好的效果(一般分类预期有2-3点左右提升...
前言Normalization Layer在现代深度神经网络中是不可或缺的部分, 特别对于深层或者大规模...
前言如果你是一个自然语言处理的爱好者,那么你可能听说过 BERT。在这篇文章中,我们将探索 BERT:它...