day day up
10
15
14
13
12
11
09
09
08
09
25
bert bert
BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingPaper | Talk Part1. 标题&作者Pre-trai
2024-09-25
25
ML-based-knowledge ML-based-knowledge
ML知识点汇总1.LSTM 原理分析 2.预训练思想有了图像领域预训练的引入,我们在此给出预训练的思想:任务 A 对应的模型 A 的参数不再是随机初始化的,而是通过任务 B 进行预先训练得到模型 B,然后利用模型 B 的参数对模型 A
2024-09-25
3 / 4