DeepSeekが、またやってくれました。
2025年12月のV3.2以来となる新モデル群として、DeepSeek-V4-Pro と DeepSeek-V4-Flash のプレビュー版を公開した、というのが今回のニュースです。
Simon Willisonの記事は、いつも通り「モデルの性能」だけでなく、価格・サイズ・実用性まで含めてかなり冷静に見ています。で、今回の結論を先に言うと、DeepSeek V4は“最先端にかなり近いのに、値段が異様に安い”。これはかなりインパクトがあります。
DeepSeek-V4-Pro と DeepSeek-V4-Flash を発表Pro は 1.6T total parameters / 49B activeFlash は 284B total / 13B activeFlash: 入力 $0.14 / 出力 $0.28 per million tokensPro: 入力 $1.74 / 出力 $3.48 per million tokensDeepSeek-V4-Flash は、記事内比較で小型モデルの中で最安DeepSeek-V4-Pro は、大きめのフロンティアモデルの中で最安DeepSeekは中国のAI研究開発チームで、ここしばらくの間、「性能は高いのに安い」モデルを出してくる会社として注目されています。
今回のV4は、その路線をさらに強めたアップデートです。
今回出たのは2つ。
名前からしてわかりやすく、Pro はより高性能寄り、Flash は軽量で速さ重視っぽい立ち位置です。
このあたりはスマホの「Pro」「Lite」に近い感覚で見て大丈夫です。
しかもどちらも 1 million token context。
これはつまり、とんでもなく長い文章をまとめて扱えるということです。
普通のLLMは長文を入れると苦しそうになりますが、1Mトークンはかなり別世界。
本、論文の山、巨大なコードベース、長い会議ログなどを一気に読ませる用途で強みが出ます。
DeepSeek-V4-Pro は 1.6T total parameters、49B active。
DeepSeek-V4-Flash は 284B total parameters、13B active。
ここで出てくる parameters(パラメータ) は、モデルの「頭の中の部品」みたいなものです。
基本的には多いほど表現力が高くなりやすいのですが、単純に「大きければ勝ち」でもありません。
学習・推論コスト、メモリ使用量、速度が全部効いてくるので、現実にはかなり悩ましいところです。
そして active parameters は、実際の1回の回答で使われる部分の量です。
DeepSeek V4は Mixture of Experts(MoE) なので、モデル全体は巨大でも、毎回全部を動かすわけではありません。
必要な専門家だけを呼ぶので、巨大なのに、思ったより効率がいいという仕組みです。
Simon Willisonは、Pro が 新しい最大級のオープンウェイトモデル ではないかと見ています。
比較対象として挙がっているのは、Kimi K2.6 や GLM-5.1、そして以前の DeepSeek V3.2。
サイズだけ見ると、今回の Pro はかなりの大物です。
記事で面白いのは、Simonが自分の128GB M5 MacBook Proで動くかを気にしている点です。
これ、かなり「ロマン」あります。
Flash は 160GBPro は 865GB(Hugging Face上)さすがにそのままでは重いですが、Flash は軽く量子化された版なら自分のマシンで動くかもしれない、と期待しています。
量子化(quantization) というのは、モデルを少し圧縮して軽くする技術です。
精度を少し犠牲にする代わりに、メモリ使用量や動作の重さを減らせます。

個人的にも、ここはかなり面白いポイントだと思います。
AIがクラウドの中だけの存在ではなく、「自分の手元で動く強いモデル」になっていく流れは、かなりワクワクします。
巨大モデルがローカルで少しでも実用的に動くようになると、使い方の自由度が一気に広がるからです。
Simonは OpenRouter 経由でモデルを試し、
Generate an SVG of a pelican riding a bicycle
という、いつものテストをしています。
この「ペリカンが自転車に乗るSVG」は、彼の記事ではおなじみのベンチマーク兼お遊びネタです。
難しい推論だけではなく、ちょっとした生成タスクでの絵作りの安定感を見るのにちょうどいい、というわけです。
結果として、Flash と Pro の両方でペリカンはなかなか良かったとのこと。
過去のV3.2やV3.1、V3-0324との比較もされていて、DeepSeekが地道に伸びているのがわかります。
こういう「ちゃんと絵が崩れず、意図も通る」モデルは、地味に信頼できます。
派手なデモより、こういう細かいところで実力が見えることが多いんですよね。
今回いちばん衝撃的なのは、やっぱり価格です。
DeepSeekの価格はこうです。
これを、Gemini / OpenAI / Anthropic のフロンティア級モデルと比べるとかなり安いです。
記事内の表では、Flash は小型モデルの中で最安、Pro は大型フロンティアモデルの中で最安と位置づけられています。
正直、ここはかなり重要です。
AIの進化はもちろん性能競争でもあるのですが、実際に広く使われるかどうかは価格がかなり効くからです。
性能が少し上でも、値段が高すぎると、普段使いには向きません。
その意味で、DeepSeek V4は「最先端と同等ではないかもしれないが、十分すごい性能を、かなり安く提供する」モデルとして強いです。
これは企業利用でも個人利用でも、かなり刺さる戦略だと思います。
記事では、DeepSeekの論文から次の点を引用しています。要するに、長いコンテキストでの効率改善にかなり力を入れているということです。
1Mトークンのコンテキストでは、
DeepSeek-V4-Pro は V3.2 比で
DeepSeek-V4-Flash はさらに効率的で
となっています。

FLOPs は、ざっくり言うと「計算量」です。
KV cache は、長い会話や長文処理で必要になる「覚えておくための一時メモリ」だと思えばよいです。
これらが小さいほど、モデルは速く・安く・扱いやすくなります。
つまりDeepSeekは、単にモデルを大きくしたのではなく、
“長文を扱うときに無駄なコストが出にくい設計” にかなり気を配っている、ということです。
これは賢いですし、実務ではかなり効くはずです。
DeepSeek自身のベンチマークでは、Pro はかなり強い成績を出しています。
ただし、論文内ではこんなニュアンスも示されています。
DeepSeek-V4-Pro-Max は、標準的な reasoning benchmark でここ、すごく大事です。
DeepSeekは「世界最高です」とは言っていません。
むしろ、最先端から少し遅れていることを自分たちで認めている。
この率直さは好感が持てますし、逆に信頼感があります。
そして個人的には、この「3〜6か月遅れ」という自己評価はかなり現実的だと思います。
AI業界は動きが速すぎるので、数か月の差がそのまま価格差・運用差として現れます。
だからこそ、**“少し遅いが圧倒的に安い”** というポジションは十分に戦えるんです。
Simonは、huggingface.co/unsloth/models を注視しているそうです。
理由は、Unslothチームがかなり早く量子化版を出してくれそうだから。
これもかなり現実的な期待です。
もし Flash の良い量子化版が出れば、個人のローカル環境でもかなり触りやすくなるはず。
そうなると、DeepSeek V4は「クラウドで安い」だけでなく、**“手元でも遊べる強いモデル”** になるかもしれません。
この流れ、私はかなり面白いと思います。
AIは結局、性能そのものよりも、どれだけ安く、どれだけ自由に、どれだけ自分の環境で使えるかで広がっていくからです。
DeepSeek V4は、ざっくり言えばこういうモデルです。
でも、この「少し後ろ」が致命的かというと、全然そんなことはありません。
むしろ多くの現場では、最先端をわずかに下回る代わりに、コストが劇的に安いほうが価値が高いことも多いです。
DeepSeek V4は、まさにその象徴のような存在です。
AI業界の競争は、もう「誰が一番頭がいいか」だけではなく、誰がいちばん賢く安く作れるかの勝負になってきている——そんなことを強く感じさせる発表でした。
参考: DeepSeek V4—almost on the frontier, a fraction of the price