『BERT・XLNetに学ぶ、言語処理における事前学習』の第2版の作成にあたりベースの理解のしやすさを優先したため、ALBERTやT5などを執筆対象から外すということになりました。
https://booth.pm/ja/items/1834866
そこで、トレンドについては別途まとめ直せればということで、BERT関連論文の研究トレンドのまとめをこちらにまとめました。
トレンドまとめなので構成などはあまり気にせず、新しい論文などをどんどん取り入れて、内容を更新していければと思います(初版については一旦800円の設定としました)。