主题
BERT 是 encoder-only 预训练模型的代表。它通过 Masked Language Modeling 学习双向上下文表示,后来成为分类、匹配、抽取、检索和 reranker 的核心基础模型。
MLM
NSP
[CLS]
[SEP]
[MASK]