音声AIがついに「推論しながら喋る」時代へ——OpenAIが3モデルを一挙API公開
「AIに話しかけたら、そのまま仕事が進む」時代がいよいよ来るかもしれません。
5月7日、OpenAIが音声インタラクション向けの新モデルを3つ同時にAPI公開しました。
3種のモデルが、Realtime APIを通じて開発者に一斉解禁されました。
会話しながら推論する「GPT-Realtime-2」、リアルタイム翻訳の「GPT-Realtime-Translate」、発話と同時に文字起こしをする「GPT-Realtime-Whisper」です。
日本語対応を期待する声がXで相次ぎ、開発者コミュニティが一気に沸き立っています。
3モデルの中身を整理する
まず3つのモデルが何をするのかを整理しておきましょう。
GPT-Realtime-2 は、GPT-5クラスの推論能力を持つ音声モデルです。
コンテキストウィンドウは128,000トークンと大幅に拡張され、推論レベルをminimal〜xhighの5段階で調整できます。
AI音声評価ベンチマーク「Big Bench Audio」では96.6%の精度を記録し、前世代から15ポイント以上の大幅向上を果たしました。
ツール呼び出しや会話の中断・割り込みにも対応しており、エージェント的な使い方を想定した設計です。
GPT-Realtime-Translate は、70言語以上の音声入力を受け取り、13言語にリアルタイム翻訳します。
日本語の入出力にも対応しており、ライブ通訳の自動化や、グローバルな音声コミュニケーションの変革が期待されています。
料金は1分あたり$0.034と比較的手頃で、ZoomやTeamsへの統合を見越したような価格設定です。

GPT-Realtime-Whisper は、発話に合わせてストリーミングで文字起こしするモデルです。
これまでの文字起こしAIが「録音後に処理」だったのに対し、「話しながら同時にテキスト化」が実現します。
料金は1分あたり$0.017で、議事録の自動化や字幕生成に使いやすい設計になっています。
日本語対応への反応が大きかった
この発表でとくに日本のユーザーが反応したのが、GPT-Realtime-Translateの日本語対応でした。
denfaminicogame氏が日本語で内容を紹介すると、1400以上のいいねが集まりました。
OpenAI、70以上の言語をリアルタイム翻訳する音声AIモデル「GPT-Realtime-Translate」を発表https://t.co/EUvOkKW4TZ
— 電ファミニコゲーマー (@denfaminicogame) 2026年5月8日
話者の発話ペースにあわせた低遅延のライブ翻訳が可能。自然な会話が可能な「GPT-Realtime-2」や文字起こしに特化した「GPT-Realtime-Whisper」も登場。APIを通じて提供開始 pic.twitter.com/BrLAc8XZqG
「Zoomに乗るといいのに」「グローバル営業の在り方が変わる」という声が見られ、日本語話者にとってのハードルが一気に下がる可能性を感じているユーザーが多いようです。
一方、OpenAIがリアルタイム音声モデルを次々と投入できる背景には、同社が直面しているリソース投資の経緯もあります。
ImAI_Eruel氏はこう指摘しました。
「NVIDIA CEOが推論コストは1年で1/10がせいぜいと言っている。
OpenAIはリソース不足でSoraを停止し、Anthropicも推論需要が80倍でかろうじて対応している状況だ」と。

これはなかなか恐ろしい話で、本丸のNVIDIA革ジャンが推論コストは1年後でも技術的に10分の1がせいぜいと言っている中、OpenAIはリソース不足でSoraを切り、Anthropicも推論需要が80倍でかろうじてイーロンに救済してもらっている状況
— 今井翔太 / Shota Imai@えるエル (@ImAI_Eruel) 2026年5月8日
ここにまだ推論需要が一般化していないPhysical… https://t.co/WG8m8nwHo3
AIサービスの拡大と、それを支えるインフラコストの問題は表裏一体であることが、開発者側にも意識されています。
実際に何が変わるのか
今回のリリースを一次情報で確認してみると、GPT-Realtime-2がとくに「エージェント型の音声操作」を目指して設計されていることが分かります。
会話の途中で推論し、ツールを呼び出し、ユーザーの割り込みにも自然に対応する。
この設計は、音声ベースのAIアシスタントが「単なる回答機械」から「話しながら考えてくれる存在」へと変わるための土台です。
これまでの音声AIは、「話す → AIが受け取る → 考える → 返す」という逐次処理でした。
GPT-Realtime-2は、この処理を並列化しながら、会話のテンポに合わせて動くことができます。
128Kトークンのコンテキストは、長い会議の文脈を丸ごと保持しながら音声でやり取りする使い方も視野に入ります。
翻訳モデル(Translate)と組み合わせれば、日本語で質問しながらリアルタイムで他言語の情報にアクセスする体験も実現可能です。
70言語入力 × 13言語出力という組み合わせは、国際ビジネスの「言語の壁」を大きく縮める可能性があります。
さらに深掘りしたい方へ
- Advancing voice intelligence with new models in the API(OpenAI公式)
- GPT-Realtime-2 解説(IT media AI+)
- Build Live Translation Apps with gpt-realtime-translate(OpenAI開発者向けクックブック)
まとめ
OpenAIが音声AIの3モデルを一挙公開し、会話しながら推論・翻訳・文字起こしが同時にできる時代が始まりました。
日本語対応の拡充により、国内開発者にとっても実用フェーズに入りつつあるといえます。