「プロンプトの工夫って、もう不要じゃない?」
思考型(Reasoning)モデルが強くなるほど、そう感じる人も増えてきました。
ところが最近、“かなりシンプルなのに効く”テクニックが論文で報告されて話題になっています。
それが Prompt Repetition(プロンプトの繰り返し)。
同じプロンプトを2回以上、ただコピペで繰り返すだけで、タスクによっては精度が上がるという内容です。
本記事では、動画内容(書き起こし)をもとに、
- どんな論文なのか
- なぜ「2回言うだけ」で良くなるのか
- どこで使えるのか/逆に注意点は?
- 思考型モデルではどうなの?
を、なるべく数式なしで噛み砕いて解説します。
1. 話題の論文:Prompt Repetition Improves Non-reasoning LLMs
紹介されている論文は、2025年12月17日公開の新しい研究で、著者はGoogleの研究者。
タイトルを日本語にするとだいたいこうです。
「プロンプトの繰り返しは、非推論(non-reasoning)LLMを改善する」
ここで重要なのは “Non-reasoning(思考過程を生成しないタイプのモデル)” が主対象だという点。
思考型モデルでも少し効くことはあるが、メインは「普通のLLM」で精度改善が確認された、という立て付けです。
2. 何をしたの?(やったことがシンプルすぎる)
やっていることは本当にこれだけです。
- 通常:プロンプトを1回入力する(ベースライン)
- 提案手法:同じプロンプトを2回(あるいは複数回)連結して入力する
例(イメージ)
[問題文 + 選択肢 + 指示]
[問題文 + 選択肢 + 指示] ← これをそのまま繰り返す
「大事なことなので2回言いました」みたいなノリが、LLMにも効く、という話です。
3. どのくらい効いたの?(ベンチマークで検証)
論文では複数ベンチマークで検証されていて、
GPT-4系の軽量モデル、Anthropic系、Gemini Flash系などでも比較されている、という紹介でした。
ポイントは、
- 多くの評価で ベースライン(1回入力)を上回る
- 統計的に有意な改善(星マーク)も複数ある
- 特に「選択肢が多い」タイプで改善が大きい傾向
という点です。
4. なぜ“繰り返し”で良くなるの?(核心)
ここが一番面白いところ。
カギは「LLMは未来の単語を参照できない」
LLMは、文章を左から右へ順番に処理しながら、次に来そうな単語を予測して生成します。
この仕組み上、「後ろに書かれた情報」は、前の単語を処理するときに使えません。
だから、入力の順番が結果に影響します。
5. 質問が先?選択肢が先?で精度が変わる
動画内の例が分かりやすいです。
パターンA:選択肢が先
東京 / 京都 / 北海道 / 「日本の首都は?」
この場合、LLMが「北海道」を処理している時点では、
まだ「日本の首都は?」という“文脈”が後ろにあるので、意味づけが弱い状態で選択肢を処理してしまいます。
パターンB:質問が先
「日本の首都は?」/ 東京 / 京都 / 北海道
この場合は、「首都を答える問題だ」という前提を持った状態で、
選択肢を処理できるので、関連性計算(アテンション)がやりやすい。
結果として、一般に Question First の方が精度が高くなりやすい。
6. じゃあ繰り返しは何をしてるの?
ここで Prompt Repetition が効いてきます。
同じ文章を2回入れると、
- 2回目の選択肢を処理するとき
- 1回目の「質問文+文脈」がすでに前に存在する
つまり、2回目の入力では、たとえ「選択肢→質問」の並びでも、
過去(=1回目)に質問文がある状態で選択肢を処理できるので、文脈が乗る。
結果として、順序の不利を“緩和”できる、という説明です。
7. 思考型(Reasoning)モデルではどうなる?
動画の結論はこうでした。
- 思考型でも「やや改善」することはある
- ただし、効果は限定的になりやすい
理由は直感的で、思考型モデルは内部で
- 「この問題は何を問うているか」を整理し
- 自分で“中間生成”しながら解く
つまり、内部で繰り返し・再構成をやってしまうため、
外側からの単純な繰り返しの恩恵が小さくなる、という考え方です。
8. 実務での“使いどころ”と注意点
✅ 使いどころ:選択肢が多い、順序が難しいタスク
- 選択肢が大量にある分類・マッチング
- 長い選択リストから正解を選ぶ
- 文脈の参照位置がズレると精度が落ちやすい問題
特に動画では 「選択肢が50個」みたいなタスクで改善が大きい点が強調されていました。
⚠️ 注意点:翻訳・要約の“貼り付け順”は逆がいいかも
多くの人がやりがちなのがこれ:
(長文を貼る)
「これ翻訳して」
この場合、LLMは長文を処理している段階では「翻訳タスク」だと確信しづらい。
理屈上は、こうした方が自然です。
「次の文章を翻訳して」
(長文を貼る)
劇的に変わるとは限らないですが、迷ったら指示を先に置くのが堅い、という示唆です。
9. Prompt Repetitionの“地味にすごい”メリット
動画で挙げられていたメリットは2つ。
- 生成トークンが増えない
「Step-by-stepで考えて」系は出力が長くなりがちでコスト増&遅延増。
一方、繰り返しは“入力が増える”だけで、出力は増えにくい。 - ワークフローを変えずに組み込める
既存のプロンプトを、そのまま2回貼るだけ。
テンプレ修正が最小で済みます。
まとめ:プロンプト技術はまだ死んでない(ただし“狙い撃ち”が重要)
- Non-reasoning系のLLMでは、プロンプトを繰り返すだけで精度が上がるケースがある
- 理由は、LLMの「過去しか参照できない」制約により、順序の不利が出るから
- 繰り返しで、2回目の処理時に文脈が前に存在する状態を作れる
- 思考型モデルでは効果は限定的
- 翻訳・要約などは「指示→本文」の順が堅い
- 選択肢が多いタスクは特に試す価値あり
