さて、タイトルについてだが、「大きなお世話だ」と言いたい人もいるかもしれない。どうして好きでMacやRyzenAIMax+395を買うのにこんなイチャモン付けられなきゃイカンの?と思うかもしれないから文脈を説明する。

私だって他人がどんなPCを買おうがイチイチ口出しする気は無いし、どうでもいいよ。

しかし、私がtwitterでMacやRyzenAIMax+395の話題をすると「これさえ買えばAI全部できるのかな?」とか「画像生成や動画生成も行けるのかな?」とか私はそんな事まったく書いてないのに勝手に誤解した引ツイする人がたまにいる。
MacやRyzenAIMax+395買っとけばAI全部オッケーなんて、そんな都合がいい話があるわけないだろう。もしそうならとっくにNVidiaの株価は崩壊してるハズだ。

とにかく、こういう引ツイを放置して相手が誤解したまま間違えて買ってしまったら、なんか私の責任みたいになってしまいそうでイヤだ。だから引ツイかリプライで長文書いて訂正するんだが、毎回長文書くのが面倒すぎるので、いっそ今回記事としてちゃんと書いておこうと思った。そうすれば次からはこのURLだけ投げつければ済むという寸法である。

なんか世間ではNVidiaのグラボ積んだデスクトップPCから逃げてノートPCやMac、ミニPCで済まそうとする風潮があるような気がする。自作PCのゴタゴタが面倒くさいのかもしれない。しかし逃げでMac買ったって何も得られないかもしれないし、ちゃんとNVidiaのグラボに正面から向き合った方がいいのでは。

ちなみにCopilot+PCは完全に論外である。マイクロソフトがYoutubeのCMとかで「AIはCopilot+PC買っとけばOK~」みたいに宣伝してるのは本当にイラッとする。

今回ハッキリさせたいのは、AI目当てでMacやRyzenAIMax+395を買う必要がある人なんて、ハッキリ言って誰もいないという点である。

MacやRyzenAIMax+395の長所

AIの文脈において、MacやRyzenAIMax+395は何が長所なのか?それは二点ある。
①メモリが速い
②メモリが多い

MacやRyzenAIMax+395のようなAPUはユニファイドメモリでメモリがCPUに直結されており、帯域幅が爆速である。そしてNVidiaの消費者向けグラボに比べたらメモリ量も多い。

メモリ量帯域幅値段
RTX509032GB1792GB/s40万円くらい(グラボのみ)
RTXPro6000Blackwell96GB1792GB/s155万円(グラボのみ)
M3Ultra最大512GB800GB/sメモリ512GBなら150万円
RyzenAIMax+395最大128GB256GB/sメモリ128GBなら30万円くらい
Project Digits128GB273GB/s3000ドル(45万円くらい?)
メインメモリ普通のマザボで最大128GBDDR4で51.2GB/s(デュアルチャンネル)
DDR5なら102.4GB/s
DDR4もDDR5もメモリは32GBを4枚買っても4万円くらい

NVidiaグラボはRTX5090でもVRAM32GBしかない。一方、M3Ultraなら最大512GBも積める。

帯域幅については、普通の私のPCのDDR4メモリはデュアルチャンネルでもたったの51.2GB/sしかないが、RyzenAIMax+395は5倍の256GB/s、M3Ultraに至っては800GB/sもある。

MacやRyzenAIMax+395はLLM推論だけ強い

普通、AIでモノ言うのはGPU性能である。LLMの学習も、画像生成も、動画生成も、基本的に全てはGPU性能で決まる。

しかし、LLMの推論だけは例外的にメモリ帯域幅(速度)がモノを言う。帯域幅がボトルネックなのだ。
まあ帯域幅だってRTX5090は1792GB/sもあって爆速だから結局LLM推論もNVidiaグラボが一番速い。しかし、RTX5090はVRAMの量が32GBしかない。これだとパラ数で言えば45BくらいまでのモデルしかVRAMに乗り切らない。VRAMに乗り切らない場合、モデルの一部をCPUに計算してもらうが、メインメモリの帯域幅はゲロ遅いので悲惨なくらい推論が遅くなってしまう。

その点、MacやRyzenAIMax+395はもっとでかいモデルでもメモリに載るのでボチボチの速度を維持して推論できる。
この点に関してはMacやRyzenAIMax+395にアドがある。だが、逆に言えばそれだけだ。

MacやRyzenAIMax+395はLLM推論以外は遅い

MacやRyzenAIMax+395はメモリ量が多くて帯域幅が速い。ただそれだけである。GPU性能はしょぼい。
こちらによるとM3UltraのGPU性能はRTX4070TiSUPERと同等らしい
https://www.reddit.com/r/blender/comments/1jfu2ph/apple_m3_ultra_is_currently_the_only_nonnvidia/

RyzenAIMax+395のGPU性能はRTX3060程度しかないらしい
PassMark – Radeon 8060S – Price performance comparison

あとProjectDigitsのGPU性能(AI TOPS)は1000TOPSと書かれていて、これはRTX5070の988TOPSと同じくらいだ。

まあゲームで遊ぶならこれらは十分なGPU性能と言えるかもしれないが、AI用途としては物足りないだろう。
例えばRTX4090なら1分で済むようなWanの動画生成もRyzenAIMax+395だと9分もかかってしまう
Ryzen AI MAX+395(Windows)でWan2.1を動かす

遊べないわけではないが、本格的に使うには遅すぎる速度だ。

それから、いくらLLM推論がメモリボトルネックと言っても、トークン生成の前のプロンプト処理についてはメモリよりGPU性能がモノを言う。こちら↓によるとLlama2-7BにおいてRTX4090がプロンプト処理8534tpsのところ、M3Ultraは1116tpsしかない。

Performance of llama.cpp with Vulkan · ggml-org/llama.cpp · Discussion #10879

つまり、入力プロンプトが1万トークンだったらRTX4090なら1秒待てば済むが、M3Ultraなら9秒くらい待つハメになる。モデルが大型化するとこの違いは顕著になっていく。例えば512GBのM3UltraでDeepSeek-V3を動かした場合、プロンプト処理は60tpsまで低下する。これだと1万トークン入力するとトークン生成が始まるまでに3分待たされる。トークン生成も6tpsしか出ない。動くは動くが実用的な速度とは言えない。

てかChatGPT使っとけばいいでしょ

というわけで、AIに関してはNVidiaのGPUに比べてMacやRyzenAIMax+395はLLM学習もダメ、画像生成も動画生成もダメ、唯一の利点のLLM推論にしてもNVidiaのGPUで読み込めるサイズならそっち使った方が速度速いし、じゃあでっかいモデルならいいか?というとDeepSeek-V3くらいまででかくなるともうメモリボトルネック以上に結局GPUボトルネックになってきて実用的速度が出せないという有様である。

まあGPT-OSS-120BみたいなハンパなサイズのモデルについてはやっぱりMacやRyzenAIMax+395に利点がある事は認めざるを得ない。

しかし、そもそも論として何でそこまでしてローカルでLLM動かす必要があるのか?ChatGPTじゃダメなんですか?
一番強力なオープンなLLMよりもChatGPTのGPT-5Thinkingの方が断然性能上ですよ。

前回の記事で散々「クローズなChatGPTよりもオープンなDeepSeekの方が信頼できる!」とか書いたくせに、なに手のひら返してんだ?と思うかもしれないが、前回の記事は企業でのAI利用というのが前提の文脈だった。しかし個人がAI使う場合、セキュリティだなんだと細かい事を気にしなくていいならChatGPT使う方が速度も速いし性能も高いしメンテやら何やらも必要無い。
確かにChatGPTは個人利用でも監視、検閲、開示リスクがあるが、だったら監視、検閲、開示されても問題ない内容だけ入力してればいいとも言える。

ChatGPTで済むならローカルLLMは必要ない。MacやRyzenAIMax+395の長所はローカルLLMだけ。すなわちMacやRyzenAIMax+395は買う必要が無い。言っておくが、メモリ512GBのMacStudioを買う150万円でChatGPTのプロプランやClaudeMaxが4年間以上契約できてしまう。そっちの方がアドでしょ?

で、AI学習や画像生成、動画生成がしたければそれはNVidiaのグラボを買ってください。

という事なので、AI目当てでMacやRyzenAIMax+395を買う必要がある人なんて誰もいない…という結論になる。

ビジネスで活用できる局面はある?

個人レベルではMacやRyzenAIMax+395なんて不要だろうという結論だが、企業では必要になる局面もあるかもしれない。

例えばセキュリティを気にしてクラウドAIが使えない職場とか、インターネットに接続禁止の職場とかではローカルLLMが必要になるかもしれないし、それならRyzenAIMax+395のミニPCを職場に設置してGPT-OSS-120Bでも入れておけば割と実用的に使えそうな気がする。(まあGPT-OSS-120Bはインターネット検索を与えてやった方が本領発揮すると思うけど)

とにかく言っておきたいのはMacやRyzenAIMax+395でAI使う必然性があるとしたらこういう一般人には関係ない相当特殊で限られたケースの話だけだろうという事だ。

それでも買う?

とにかく言うべき事は言ったので、それでもMacやRyzenAIMax+395を買いたい~というのなら好きにすればよろしい。私は別にAMDやAppleの商売の邪魔がしたいわけではない。ただ誰かがMacやRyzenAIMax+395を買えばAIでアド~みたいな勘違いして買って後悔する事態を阻止したいだけである。
記事の中でやんわりProjectDigitsについても触れてるが、ProjectDigitsはNVidiaのGPUが入ってるだけマシかもしれんが、大体MacやRyzenAIMax+395と同じような話な気がする。

ちなみに例外的なケースとして、AIとどうしてもエロチャしたいというような人はMacやRyzenAIMax+395買ってローカルLLMする必要性が出てくる可能性もあるのかもしれない。ChatGPTではエロチャは検閲されてしまうからだ。まあ最近はGrokなら割とエロチャできちゃうというような話も聞くけど。