『GitHub - openai/gpt-3: GPT-3: Language Models are Few-Shot Learners』へのコメント (original) (raw)

気に入った記事をブックマーク

エントリーの編集

loading...

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。

このページのオーナーなので以下のアクションを実行できます

タイトル、本文などの情報を
再取得することができます

ゲスト

アプリのスクリーンショット

いまの話題をアプリでチェック!

アプリをダウンロード

関連記事

usersに達しました!

さんが1番目にブックマークした記事「GitHub - openai/g...」が注目されています。

GitHub - openai/gpt-3: GPT-3: Language Models are Few-Shot Learners

arXiv link Recent work has demonstrated substantial gains on many NLP tasks and benchmarks by pre... arXiv link Recent work has demonstrated substantial gains on many NLP tasks and benchmarks by pre-training on a large corpus of text followed by fine-tuning on a specific task. While typically task-agnostic in architecture, this method still requires task-specific fine-tuning datasets of thousands or tens of thousands of examples. By contrast, humans can generally perform a new language task from

ブックマークしたユーザー

ブックマークしたすべてのユーザー