DeepSeek V4が無料公開——コーディングでGPTを超えたとされる中国AI、誰でも使える時代へ
「中国AIの地震」——X上でそう称された新モデルが4月24日に登場した。中国のAI企業DeepSeekが「DeepSeek-V4」を誰でも無料で使えるオープンソースとして公開し
「GPT-5.5より性能が高くて、料金は50分の1」——そんな見出しをSNSで見かけて、思わず二度見してしまいました。
4月24日、中国のAI企業DeepSeekが「DeepSeek-V4 Preview」を公開しました。
コーディング評価でGPT-5.4を上回りながら、API料金は業界最安水準。
さらにオープンソース(誰でも無償で利用・改変できる形式)として公開されたことで、世界の開発者コミュニティが再びざわついています。
気になって深掘りしてみました。
DeepSeek V4のリリース情報はあっという間に広まり、「またDeepSeekがやった」という雰囲気が生まれていたようです。
まずDeepSeek公式の発表をご覧ください。
🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.
🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models.
🔹 DeepSeek-V4-Flash: 284B total / 13B active params.… pic.twitter.com/n1AgwMIymu— DeepSeek (@deepseek_ai) 2026年4月24日
(日本語訳:DeepSeek-V4 Previewが正式公開・オープンソース化。100万トークン対応の新時代へ。V4-Proは1.6兆パラメータ(アクティブ490億)で世界最高水準のクローズドモデルに匹敵する性能。V4-Flashは2840億パラメータ(アクティブ130億)。)
コスト面での驚きの声も相次いでいます。
deepseek v4 is now the cheapest sota model available at 1/20th the cost of opus 4.7.
for perspective, if uber used deepseek instead of claude their 2026 ai budget would have lasted 7 years instead of only 4 months. pic.twitter.com/i9rJZzvRBV
— Saoud Rizwan (@sdrzn) 2026年4月24日
(日本語訳:deepseek v4は現時点で最安のSOTA(最先端)モデルとなった。Opus 4.7の20分の1のコストで動く。もしUberがClaudeの代わりにDeepSeekを使っていたら、2026年のAI予算は4ヶ月ではなく7年もったはずだ。)
「Uberが7年もった」という例えは、規模感をリアルに伝えていてインパクトがありますね。
このコスト差が、LLM(大規模言語モデル:大量のテキストで訓練されたAI)を活用するビジネスのコスト構造を根本から変えるのでは、という議論を呼んでいます。
Another #DeepSeek moment:
On April 24, DeepSeek released its next-gen V4 with Pro and Flash versions at prices starting at 0.2 yuan ($0.03) per million tokens for cached input and 2 yuan ($0.29) for output on Flash, much cheaper than OpenAI's GPT-5.5.Prices could drop further… https://t.co/Js5AXFgZT2 pic.twitter.com/A1Mw6sPRdV
— Bridging News (@BridgingNews_) 2026年4月25日
(日本語訳:4月24日、DeepSeekは次世代V4をProとFlashの2バージョンで公開。Flashのキャッシュ入力は100万トークンあたり0.2元(約0.03ドル)、出力は2元(約0.29ドル)。OpenAIのGPT-5.5より大幅に安い。今後さらに値下がりの可能性も。)
公式発表と各分析サイトの情報をまとめると、V4の全体像が見えてきます。
2種類のモデル構成
DeepSeek-V4 Previewには、用途に応じた2つのバージョンがあります。
どちらのモデルも100万トークン(日本語で約100〜200万文字分)のコンテキストウィンドウ(一度に処理できるテキスト量)をサポートしているのも特徴です。
料金の破壊力
| モデル | 入力 | 出力 |
|---|---|---|
| DeepSeek V4-Flash | $0.14/100万トークン | $0.28/100万トークン |
| DeepSeek V4-Pro | $1.74/100万トークン | $3.48/100万トークン |
| Claude Opus 4.7(参考) | $15/100万トークン(推定) | $75/100万トークン(推定) |
V4-Flashはコーディング用途での選択肢として特に注目されており、「Gemini 3.0 Flash」と比べても出力トークンあたり10分の1のコストという試算もあるようです。
懸念点も正直に見ておきましょう
一方で、中国製AIならではの慎重論も存在します。
ハルシネーション(AIが事実と異なる情報を生成してしまう現象)の頻度、企業導入時のデータプライバシー、中国政府との関係性への疑念——これらが開発者コミュニティで議論されています。
高い性能評価と、信頼性・コンプライアンス上の慎重論が共存している状況ではないでしょうか。
オープンソースとOpenRouter経由での利用
モデルの重みは公開されており、自前のサーバーで動かすことも可能です。
また、OpenRouter(複数のAIモデルを一元的に利用できるAPIサービス)経由でも即座にAPIアクセスができます。
DeepSeek V4は、性能と価格の両面で既存モデルに真っ向から挑んでいます。
AI活用コストの引き下げ競争はさらに激化しており、ビジネスでのLLM選定が「性能だけ」を追う時代から「コスパと信頼性のバランス」を問う時代へと移り変わってきているのかもしれません。
生成AI・Claude・文章AI──現場の視点から、使えるニュースとノウハウをまとめています。