|
Bert系列十三:百度ERNIE-Gram:Pre-Training with Explicitly N-Gram Masked Language Modeling Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列十二:Bert模型集大成者T5 Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列九:ALBert-轻量有效 Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列十一:DeBERTa霸榜SupreGLUE,首超人类基准 Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列十:ELECTRA-更快更有效 Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列八:SpanBert,随机起始、几何跨度掩码策略 Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列七:中英文的whole word masking以及sentencepiece Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列六:RoBERTa Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列五:XLNet Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列一:词表示,从one-hot到transformer Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列四:生成模型 GPT 1.0 2.0 3.0 Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |
|
Bert系列三:知识增强ERNIE,百度vs清华 Bert系列 · 知乎专栏 · · 3 年前 · 访问文章快照 |