AIがエルデシュ未解決問題を次々証明 数学界に衝撃
タオ氏が「ほぼ自律的に解いた」と評したAIの快挙。
「LLMは単なる次の単語を予測しているだけなのに、なぜここまで機能するのか」——この問いを見かけたとき、思わず読み返してしまいました。
発言の主は、数学界最高の栄誉「フィールズ賞」を受賞した数学者テレンス・タオ氏です。技術批判というよりも、「人間の知能の定義そのものが間違っているのではないか」という問いかけが込められているからこそ、多くの人の心に響いたのではないでしょうか。
2026年にNature誌に掲載されたインタビューをきっかけに、X(旧Twitter)では「LLMは本当に思考しているのか」という議論が再燃しています。
タオ氏はこのインタビューで、現在のAIを「人工知能(Artificial Intelligence)」ではなく「人工的な賢さ(Artificial Cleverness)」と呼ぶべきだと語っています。広範な問題をやや場当たり的な手段で解ける能力はある——でもそれは、人間が「知性」と呼んできたものとは本質的に異なるかもしれない、という見立てです。
エンジニアの@kennさんは、タオ氏のこんな比喩をXで紹介しています。「AIは視覚テストはパスするが、嗅覚テストをパスしない」——人間の書いた数学論文は見ただけで瞬時にレベルがわかり、悪い論文には特有の「臭い」があるといいます。ところがAIは、一見完璧そうな論文を書きながら致命的なミスをしてしまいます。この差はいったいどこから来るのか——その問いかけが大きな反響を呼んでいます。
AI推進派の天才数学者テレンス・タオいわく「AIは視覚テストはパスするが嗅覚テストをパスしない」と。人間の書いた数学論文は見ただけで瞬時にレベルがわかる。悪い論文には特有の「臭い」がある。しかしAIは一見とても賢そうな論文を書くがバカなミスをする。この違いはどこから来るのか? https://t.co/FwacJYKD26
— Kenn Ejima (@kenn) 2025年6月15日
AIの数学的証明をめぐっても、批判的な議論が広がっています。「強化学習(RL:AIが試行錯誤を繰り返して報酬を最大化するよう学ぶ手法)によって正しそうに見えるテキストを出力するよう訓練されているだけ」という懐疑的な見方があります。一方で「o1シリーズの登場によって単なる次単語予測を超えた戦略的な推論が生まれている」という楽観的な意見もあり、両者が真っ向からぶつかっている構図です。
Terence Tao on LLM mathematicians: “the AI-generated proofs, they look superficially flawless… the [RL] has actually trained them to produce text that *looks like* what is correct…the errors are often really stupid…” https://t.co/tL0mGs3OCd
— Nabeel S. Qureshi (@nabeelqu) 2025年6月15日
タオ氏の発言の一次情報として、2026年3月にarXiv(論文プレプリントサーバー)で公開された共著論文「Mathematical methods and human thought in the age of AI」が参考になります。
論文でタオ氏は、LLM(大規模言語モデル)の数学的基盤となる行列演算・線形代数・微積分は、学部生レベルで理解できるほどシンプルだと指摘しています。「仕組みはわかっているのに、なぜそこまで機能するのかがわからない」——このギャップこそが本質的な謎だというわけです。
o1シリーズをはじめとする強化学習ベースのモデルが推論能力を高めたことは事実ですが、タオ氏の立場は「アーキテクチャの革新よりも、使い方と評価基準の見直しが重要」というものです。AIが生成した数学的証明は「表面上は完璧に見えるが、ミスは非常に巧妙に隠れており、見つかると驚くほど単純なものだ」とも語っています。
「次の単語を予測しているだけ」という仕組みが、なぜここまで機能するのか。その謎は、人間の知能とは何かという問いと、実は地続きかもしれません。
AIへの賛否を超えて「考えるとはどういうことか」を問い直させてくれる——タオ氏の発言がこれほど多くの人の心に刺さった理由は、そこにあるのではないでしょうか。
生成AI・Claude・文章AI──現場の視点から、使えるニュースとノウハウをまとめています。