『GitHub - openai/gpt-3: GPT-3: Language Models are Few-Shot Learners』へのコメント (original) (raw)
気に入った記事をブックマーク
- 気に入った記事を保存できます
保存した記事の一覧は、はてなブックマークで確認・編集ができます - 記事を読んだ感想やメモを書き残せます
- 非公開でブックマークすることもできます
エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
このページのオーナーなので以下のアクションを実行できます
タイトル、本文などの情報を
再取得することができます
いまの話題をアプリでチェック!
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
usersに達しました!
さんが1番目にブックマークした記事「GitHub - openai/g...」が注目されています。
GitHub - openai/gpt-3: GPT-3: Language Models are Few-Shot Learners
arXiv link Recent work has demonstrated substantial gains on many NLP tasks and benchmarks by pre... arXiv link Recent work has demonstrated substantial gains on many NLP tasks and benchmarks by pre-training on a large corpus of text followed by fine-tuning on a specific task. While typically task-agnostic in architecture, this method still requires task-specific fine-tuning datasets of thousands or tens of thousands of examples. By contrast, humans can generally perform a new language task from