AI最新情報 読了 5 分

AIが「指示が曖昧すぎる」と言い始めた理由——OpenAIとAnthropicが同時公開したプロンプト新ガイドの中身

shiritomo | AI・SNS・話題のテック情報メディア by Hashout編集部 @shiritomoAI_jp 2026年5月2日 更新
AIが「指示が曖昧すぎる」と言い始めた理由——OpenAIとAnthropicが同時公開したプロンプト新ガイドの中身

「この指示、どういう意味ですか?」——AIからそんな返答が来るようになった、という声をSNSで見かけて調べてみました。

OpenAIとAnthropicが2026年4月29日前後、それぞれの最新フロンティアモデル(AI開発の最前線にある高性能モデル)であるGPT-5.5とClaude Opus 4.7向けのプロンプトガイド(AIへの指示の書き方指針)を相次いで更新・公開しました。

その内容が「なんとなく伝わる指示でOK」という従来の常識を根底から覆すものだったため、X(旧Twitter)でも大きな話題になっています。

「同じことを言っているのに、理由は真逆」——Xに広がった驚き

「OpenAIとAnthropicがどちらも同じことを言っている。

あなたの古いプロンプトはもう通用しない。

ただし理由は正反対だ」——英語圏のプロンプト研究家 @alex_prompter がXにそう投稿し、大きな反響を呼んでいます。

Claude Opus 4.7は「あなたの意図を推測するのをやめた。

書いたことだけを、そのまま実行する」のに対し、GPT-5.5は「大量の乱雑なインプットが苦手で、明快な目的に最適化されている」とのことです。

日本語圏でも反応は素早く、@i__t(みっきー)は「GPT-5.5のプロンプトガイドを見ても明らかで、大量の乱雑なインプットは苦手、端的で明瞭な目的に最適化されている」と端的にまとめています。

つまり、モデルが賢くなりすぎて「行間を読んで補完する」ことをしなくなったわけです。

以前は曖昧な指示でもAIが空気を読んでくれていましたが、最新モデルはそれをしません。

だからこそ、人間側が明確なゴールと制約を言語化するスキルが、かつてなく問われるようになっているのではないでしょうか。

公式ドキュメントで確認してみた

実際に両社の公式ドキュメントを読んで確認してみました。

Anthropicのガイド(Claude Opus 4.7向け)では、最も重要な変化として「より字義通りの指示解釈(More literal instruction following)」が明記されています。

Claude Opus 4.7は、指示の範囲を暗黙的に広げたり、頼まれていないことを補完したりしなくなりました。

たとえば「最初のセクションだけにこの書式を適用して」と書いた場合、以前のモデルなら全セクションに適用していましたが、Opus 4.7は本当に最初の1箇所だけに適用します。

「すべてのセクションに適用する」と明示しなければ、意図は通らないわけです。

さらに、エフォートレベル(思考の深さを調整する新しい設定)というパラメーターも導入されています。

低設定では「指示されたことだけ」に徹するため、ざっくりとした依頼ほど出力の品質が落ちるリスクが高まるようです。

OpenAIのガイド(GPT-5.5向け)では、「矛盾や曖昧さを含む指示はGPT-5.5に特にダメージが大きい」と明記されています。

推奨されているのは、目標(何を達成したいか)・制約(何をしてはいけないか)・停止条件(どこで終わりにするか)を明確に書くことです。

「2回以上ツールを呼ぶな」「この問題が解決したと確信できたら終了せよ」といった具体的な一言が、性能を大きく左右するとのことです。

両社のガイドに共通しているのは「モデルに意図を推測させるな、人間が言語化せよ」というメッセージです。

AIが賢くなった結果として生まれた、ちょっと逆説的な要求かもしれません。

さらに深掘りしたい方へ

まとめ

OpenAIとAnthropicが相次いで更新したプロンプトガイドは、どちらも「AIが賢くなりすぎて曖昧な指示を補完しなくなった」という現実を反映しています。

最新モデルを使いこなすには、目標・制約・停止条件を自分の言葉で明確に書く力——いわば「要件定義力」が、いまや最大の差別化要因になっているのではないでしょうか。