プロンプトを「コピペで2回入れる」だけでLLMの正答率が上がる?Google論文をやさしく解説

  • URLをコピーしました!

「プロンプトの工夫って、もう不要じゃない?」
思考型(Reasoning)モデルが強くなるほど、そう感じる人も増えてきました。

ところが最近、“かなりシンプルなのに効く”テクニックが論文で報告されて話題になっています。

それが Prompt Repetition(プロンプトの繰り返し)
同じプロンプトを2回以上、ただコピペで繰り返すだけで、タスクによっては精度が上がるという内容です。

本記事では、動画内容(書き起こし)をもとに、

  • どんな論文なのか
  • なぜ「2回言うだけ」で良くなるのか
  • どこで使えるのか/逆に注意点は?
  • 思考型モデルではどうなの?

を、なるべく数式なしで噛み砕いて解説します。


目次

1. 話題の論文:Prompt Repetition Improves Non-reasoning LLMs

紹介されている論文は、2025年12月17日公開の新しい研究で、著者はGoogleの研究者。
タイトルを日本語にするとだいたいこうです。

「プロンプトの繰り返しは、非推論(non-reasoning)LLMを改善する」

ここで重要なのは “Non-reasoning(思考過程を生成しないタイプのモデル)” が主対象だという点。
思考型モデルでも少し効くことはあるが、メインは「普通のLLM」で精度改善が確認された、という立て付けです。


2. 何をしたの?(やったことがシンプルすぎる)

やっていることは本当にこれだけです。

  • 通常:プロンプトを1回入力する(ベースライン)
  • 提案手法:同じプロンプトを2回(あるいは複数回)連結して入力する

例(イメージ)

[問題文 + 選択肢 + 指示]
[問題文 + 選択肢 + 指示]   ← これをそのまま繰り返す

「大事なことなので2回言いました」みたいなノリが、LLMにも効く、という話です。


3. どのくらい効いたの?(ベンチマークで検証)

論文では複数ベンチマークで検証されていて、
GPT-4系の軽量モデル、Anthropic系、Gemini Flash系などでも比較されている、という紹介でした。

ポイントは、

  • 多くの評価で ベースライン(1回入力)を上回る
  • 統計的に有意な改善(星マーク)も複数ある
  • 特に「選択肢が多い」タイプで改善が大きい傾向

という点です。


4. なぜ“繰り返し”で良くなるの?(核心)

ここが一番面白いところ。

カギは「LLMは未来の単語を参照できない」

LLMは、文章を左から右へ順番に処理しながら、次に来そうな単語を予測して生成します。
この仕組み上、「後ろに書かれた情報」は、前の単語を処理するときに使えません

だから、入力の順番が結果に影響します。


5. 質問が先?選択肢が先?で精度が変わる

動画内の例が分かりやすいです。

パターンA:選択肢が先

東京 / 京都 / 北海道 / 「日本の首都は?」

この場合、LLMが「北海道」を処理している時点では、
まだ「日本の首都は?」という“文脈”が後ろにあるので、意味づけが弱い状態で選択肢を処理してしまいます。

パターンB:質問が先

「日本の首都は?」/ 東京 / 京都 / 北海道

この場合は、「首都を答える問題だ」という前提を持った状態で、
選択肢を処理できるので、関連性計算(アテンション)がやりやすい

結果として、一般に Question First の方が精度が高くなりやすい


6. じゃあ繰り返しは何をしてるの?

ここで Prompt Repetition が効いてきます。

同じ文章を2回入れると、

  • 2回目の選択肢を処理するとき
  • 1回目の「質問文+文脈」がすでに前に存在する

つまり、2回目の入力では、たとえ「選択肢→質問」の並びでも、
過去(=1回目)に質問文がある状態で選択肢を処理できるので、文脈が乗る。

結果として、順序の不利を“緩和”できる、という説明です。


7. 思考型(Reasoning)モデルではどうなる?

動画の結論はこうでした。

  • 思考型でも「やや改善」することはある
  • ただし、効果は限定的になりやすい

理由は直感的で、思考型モデルは内部で

  • 「この問題は何を問うているか」を整理し
  • 自分で“中間生成”しながら解く

つまり、内部で繰り返し・再構成をやってしまうため、
外側からの単純な繰り返しの恩恵が小さくなる、という考え方です。


8. 実務での“使いどころ”と注意点

✅ 使いどころ:選択肢が多い、順序が難しいタスク

  • 選択肢が大量にある分類・マッチング
  • 長い選択リストから正解を選ぶ
  • 文脈の参照位置がズレると精度が落ちやすい問題

特に動画では 「選択肢が50個」みたいなタスクで改善が大きい点が強調されていました。


⚠️ 注意点:翻訳・要約の“貼り付け順”は逆がいいかも

多くの人がやりがちなのがこれ:

(長文を貼る)
「これ翻訳して」

この場合、LLMは長文を処理している段階では「翻訳タスク」だと確信しづらい。
理屈上は、こうした方が自然です。

「次の文章を翻訳して」
(長文を貼る)

劇的に変わるとは限らないですが、迷ったら指示を先に置くのが堅い、という示唆です。


9. Prompt Repetitionの“地味にすごい”メリット

動画で挙げられていたメリットは2つ。

  1. 生成トークンが増えない
    「Step-by-stepで考えて」系は出力が長くなりがちでコスト増&遅延増。
    一方、繰り返しは“入力が増える”だけで、出力は増えにくい。
  2. ワークフローを変えずに組み込める
    既存のプロンプトを、そのまま2回貼るだけ。
    テンプレ修正が最小で済みます。

まとめ:プロンプト技術はまだ死んでない(ただし“狙い撃ち”が重要)

  • Non-reasoning系のLLMでは、プロンプトを繰り返すだけで精度が上がるケースがある
  • 理由は、LLMの「過去しか参照できない」制約により、順序の不利が出るから
  • 繰り返しで、2回目の処理時に文脈が前に存在する状態を作れる
  • 思考型モデルでは効果は限定的
  • 翻訳・要約などは「指示→本文」の順が堅い
  • 選択肢が多いタスクは特に試す価値あり
よかったらシェアしてね!
  • URLをコピーしました!

この記事を書いた人

目次