Skip to content
This repository was archived by the owner on Mar 27, 2022. It is now read-only.
This repository was archived by the owner on Mar 27, 2022. It is now read-only.

Leveraging Pre-trained Checkpoints for Sequence Generation Tasks #135

@tm4roon

Description

@tm4roon

Leveraging Pre-trained Checkpoints for Sequence Generation Tasks

系列変換タスクにおける、BERTやRoBERTa、GPT-2などの大規模事前学習モデルの効果を検証した論文。系列変換タスクとして、機械翻訳や要約、文融合などのタスクを扱っており、大規模な実験を行っている。結果として、BERT2GPTでは、初期値をランダムに設定した場合よりも性能が劣ること及びEncoderとDecoderのVocabularyを一致させることの重要性、EncoderとDecoderの重みを共有することで高い性能を達成できることを示した。

文献情報

Metadata

Metadata

Assignees

No one assigned

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions