最近、企業におけるAI利用の文脈において、「DeepSeekよりもChatGPTの方が信頼できる~」みたいな話が言われていて、どうしてそういう話になるのかよく分からなかった。なんでDeepSeekのオープンなAIよりもOpenAIのクローズなAIの方が信頼できるんだよ?????
というようなツイをしてると、「そもそもほとんどの人は”オープンなAI”の意味が分かってない」だとかいう話も出てきた。
マジ?なんでそれしきの事を誰もちゃんと説明しねーんだよ!と思うのだが、「そう言うんだったらオメーが自分で説明しろや」とかいう話になりそうなので、面倒だが説明する事にするので、これ読んだらもうオープンなAIが何なのか分からない~とか言うのはいい加減やめてくれ。
あとOpenAIとオープンなAIの区別が付いてない人もかなりいるようだが、それも説明するからいい加減やめてくれ。
話がややこしいのが、OpenAIは今までクローズだったのに、最近GPT-OSSというオープンなAIをリリースしたから必ずしもオープンなAIじゃないとは言えなくなった事だ。あー面倒くさい。まあGPT-OSSが出た事で、「OpenAIがオープンなAIを出した?じゃあ今までのAIは何だったの?」と疑問を抱いた人も多いハズだ。
オープンなAIとは何なのか?
現在、”オープンなAI”が何なのか?と言えば、それは”モデルが公開され、配布されてるAI”の事を指す。
じゃあその”AIモデル”って何なの?という話になるだろう。「AIモデルはAIの重み、ウエイトだよ。」と言ったところでワケ分からんだろうから、これは例え話で説明する必要があるだろう。
AIモデルはSwitchのようなゲームで例えると、ゲームソフトのようなもんである。ブレワイのゲームソフトを買っても、それだけでは遊べない。Switchのゲーム機にロムを挿入する、あるいはDLしないと遊べない。Switchの内部にはGPUがあり、GPUのおかげでゲーム画面を描画できる。
この話と同様に、AIモデルはそれだけでは使えない。例えば高性能なゲーミングPCにAIモデルをDLしないと使えない。そのゲーミングPCの内部にはGPU(グラボ)があり、GPUによってAI推論(チャット)できる。
正直、この説明だけでAIモデルとは何なのか?オープンなAIとは何なのか完全に伝わったと思うが、もしかするとゲームに馴染みが無くて、パソコンにも馴染みが無くて、スマホだけ使ってる人なんかはそもそもファイルとかダウンロードの概念とか、ローカルとクラウドの区別さえ付かなかったりするのかもしれんが、キリがないので考えない。
ちなみにここでいうグラボを積んだゲーミングPCをデータセンターに置いたらAIサーバーになるみたいなもんである。GPUを積んだサーバーがAIサーバ。とは言え、ゲーミングPCに積まれてる消費者向けグラボはRTX5090が40万円とかだが、サーバ向けのGPUはH100で500万円と値段が一桁違う。AI企業は安い消費者向けグラボをサーバに組み込みたいと思ってるかもしれないが、NVidiaは消費者向けグラボをデータセンターに設置する事を禁止してる。だからすごい高いサーバ向けGPUを買うハメになる。そういう商売だ。
ついでに言うと、オープンなAIを迂闊にオープンソースと言ってしまうとオープンソース警察がやって来てバチボコにされるので気を付けた方がいい。オープンなAIはたしかにモデルはオープンにしてるけど、ライセンスがオープンソースソフトウェア互換じゃ無かったり、そもそもモデルだけオープンでも中身ブラックボックスだから全然オープンソースと言えんよね?(データセットや学習コードはオープンじゃないの?)みたいな色んな論点が出てきてしまうのでオープンソースとは言わない方がいい。
OpenAIはオープンなAIではない(GPT-OSS以前の話)
「OpenAIはオープンじゃない!社名変えろ!」と批判されまくってる理由ももうお分かりだろうと思う。OpenAIはGPT-4oやGPT-5のAIモデルを公開していない。だからオープンじゃなくてクローズなAIである。別にAI企業が必ずしもAIをオープンにする義務があるわけではないが、OpenAIは社名がOpenAIのくせにクローズなAIだから批判されるのである。
ただし、OpenAIからしてみれば自分達は十分オープンなAIだと思ってるかもしれない。まず、最初にチャットできるLLMを開発したのはGoogleだ。Googleは2020年にLaMDAを、2022年にPaLMを開発、発表したが、これらのAIは”完全クローズ”だった。つまりGoogleの社内でだけ使われていて、我々一般人には見る事も触れる事もできないという状態だ。
こういう社風だったから、「GoogleはAIを自分達で独占してる!」と批判されがちだったし、OpenAIもGoogleに対抗して「ウチは(Googleよりは)オープンですよ!」とアピールしていた。
それからOpenAIはGPT-2まではちゃんとAIモデルを公開、配布していたからオープンなAIだったのだが、それ以降のGPT-3からはモデルも非公開、パラメータ数などの仕様も非公開、技術詳細も非公開と、全然オープンでなくなった。ただし、APIは提供していたから誰でも触れるという意味ではGoogleよりはオープンだった。それからChatGPTのリリースで誰でもWebアプリからチャットできるようになった。
GoogleがLLMを完全クローズにしていたのは、こんなもんを一般公開したら誤用、悪用されまくって世の中がメチャクチャになると分かりきっていたからだろうし、あとLLMが一般に普及しちゃったら検索エンジンビジネスが崩壊してしまうから封印したという側面もあるだろう。この記事ではオープンなAIの方が偉いというのが前提みたいな論調だが、「そもそも生成AIをオープンにしてよかったのか?」みたいな論点もまああるだろう。
なんでOpenAIはGPT-3からクローズ化したのか?というのはよく分からないが、GPT-3はパラ数175Bに達し、今までのLLMに比べて超大規模化してしまい、トレーニングにシャレにならないくらいコストがかかるようになったので、利益を上げないと持続不可能だと思ったのかもしれない。企業がAIをオープンにしたところでほぼなんもトクが無い。利益を考えるならクローズ化して独占して金取った方がいいに決まってる。
GPT-3の頃までは研究機関などが頑張ってBLOOMのようなLLMを開発してオープン公開してくれていたが、いい加減大規模化しすぎて金がかかりすぎるようになって、研究機関によるLLM開発は下火になってって、代わりに大企業による開発が盛んになっていったような気がする。
これはあまり良くない流れだった。研究機関が成果物のLLMをオープン公開するのは当たり前だけど、民間の営利企業がLLMを開発しても普通に考えてオープン公開なんてしないだろう。せっかく金かけて作ったLLMを無料でバラ撒いて一体何のトクがある?
そういう懸念を吹っ飛ばしたのがメタである。2022年12月にOpenAIがChatGPTをリリースして、そのすごさにザッカーバーグが食い付いて、緊急で社内に同じようなAIを開発させたような流れだと想像するが、早くも2023年2月にメタのLLM、Llamaが公開された。ChatGPTと同様にチャットで受け答えができるモデルだ。当初はオープン公開というか、一部の研究者に非商用でひっそりと公開しただけだったのが、誰かがモデルを4chanでリークして誰でもDLできる状態にしてしまい、なし崩し的にメタもLlamaをオープン公開するハメになった。7月リリースのLlama2は開き直って最初からオープン公開で、制限付きで商用利用もOKという太っ腹な対応になった。
あらためて書くが、企業がAIをオープンで公開するのは、今では当然みたいになってるが、本来は異常である。さっきのゲームの例えで言うと、金と手間をかけて作ったゲームを無料配布するようなもんだ。1円の得にもならない。慈善事業なのか?
ただし、逆に言えばChatGPTよりも性能が低いAIモデルをクローズにしてたってそれはそれで意味が無いのでオープンにしちゃった方がいいという観点もある。オープンにしてバラ撒いた方が多少はChatGPTのシェアを奪えて足が引っ張れるし、AIコミュニティや研究者達もオープンなAIに食い付いて遊んだり研究したりして、発展していくだろう。「クローズなOpenAI VS オープンなAI&世界中のAIコミュニティ」の対決構造に持ち込める。実際、Llamaを手軽に高速推論できるソフトウェア、Llama.cpp(AIモデルがmp3ファイルとすればLlama.cppはそれを再生できるメディアプレイヤーアプリみたいなもん)がコミュニティから出てきてすごい勢いで進化している。メタはこういう技術を自分達に逆輸入する事もできる。人件費ゼロで世界中に手伝ってもらえるようなもんである。
そんなわけで、メタが率先して企業がオープンなAIを公開する流れを切り開き、今では沢山の企業が継続的にオープンなAIを公開してくれる流れができていて、我々AIオタクは次から次に手元で新しいAIで遊べてウハウハな時代である。アリババはQwenを公開してくれてるし、あの完全クローズだったGoogleも今ではGemmaを公開してくれてるし、DeepSeekやGLM、Mistralなどよりどりみどりである。
そんで、今まで説明がややこしくなるので無かったことにしていたが、ずっとクローズだったOpenAIが急に最近オープンで出してくれたのがGPT-OSSである。これが出たせいで一概に「OpenAIはクローズAI!」と批判できなくなった。GPT-OSSは120Bと20Bのモデルがあり、割と小型なので性能的にはGPT-5やGPT-4oより低いのだが、サイズの割に高性能で企業や個人にとって導入しやすいいいモデルである。
クローズだったOpenAIがオープンなAIを出したのと逆に、オープンなAIの風潮を切り開いたメタはLlama4開発で失敗して社内で揉めた結果、現在開発中の新モデルはクローズになってしまうようだ。世の中の巡り合わせは数奇である。
国がAIを所有するという事
ChatGPTが出た当時、「日本でもChatGPTみたいなAIを国産で作らないとイカン!」みたいな事が強く言われていた。というのも最初のChatGPT(GPT3.5T)は割と日本語が不得手で、日本語よりも英語でプロンプトを入力した方がよい回答が得られていたし、またトークナイザの問題で日本語でチャットすると英語でチャットするよりもトークン効率が悪化する問題もあった。
これでは日本人は英語圏の人達よりもアホなAIを使うハメになるし、コスパも悪化する事になる。だから日本語が得意なAIを自力で作らなきゃ!と焦ったわけだ。
しかしChatGPTがバージョンアップを重ねてGPT-4Tあたりになってくるともう日本語の性能も十分に向上して英語と遜色が無くなったし、トークナイザの問題も解決していった。だから「国産AI作らなきゃ!」みたいな風潮も萎えてきている。昔は「日本語のデータオンリーで学習させればメチャクチャ日本語に強いAIが作れるのでは?」みたいな説も言われていたが、実際はそんな事無いと分かってきている。というのも日本語だけで集めたデータは英語のデータに比べて圧倒的に量が少ない。学習データの量が多いほどAIは賢くなるわけで、だから日本語だけ学習させても大して賢くなれない。
というわけで、日本のAIに対する方針は、「まあChatGPTを利活用すれば良くね?」みたいなところに落ち着いていたわけだが、そんな風に「AIを持たざる国」で本当に大丈夫なんだろうか?
自国でAIを持たないで、ChatGPTのようなクローズなAIに依存するだけでは、これはOpenAIにAIの生殺与奪を握られた状態である。例えば「ChatGPTの値段を100倍に上げま~す」なんて言われても、AIを持ってる国は「じゃあ自国のAI使うからChatGPT要りません」と言えるが、AIを持たざる国は言われるがままに支払う以外に選択肢が無い。
また、政治的カードとして使われてしまうかもしれない。米国政府が「日本はコメの関税を撤廃しろ。じゃないとChatGPTのアクセスを遮断する」なんて言ってきたらどうする?例えばトランプ政権はウクライナに対してスターリンクの停止をチラつかせて政治的カードに使ってきた。これがネット回線やAIのようなインフラを他国に握られた国の末路という事だ。
ところでここで言う「AIを持つ国」とは?AIを所有するとは実際には何を意味するんだろう?
まあ一般的にはAIを所有するとはAIモデルが手元にあるという意味になるだろう。
AIに詳しくない人ではAIイコールChatGPTのようなWebアプリまたはスマホアプリであって、それ以上でもそれ以下でもないという理解の人も多いらしいが、スマホにChatGPTのアプリをインストールしたからと言ってAIモデルが手元にあるわけではないし、AIを所有してるとは言えない。
ChatGPTのアプリはゲームで言えばソシャゲアプリみたいなもんである。ソシャゲでは手元のアプリは見た目のガワ部分しか入ってなくて、実際のゲームの進行処理はサーバで行われている。アプリはサーバの状態を反映して画面に表示してるだけだ。ガチャで引いたキャラのデータなんかも全てサーバ側にある。だからソシャゲアプリをインストールしてても手元にソシャゲがあるとは言えない。サービス終了すればサーバが遮断されて、もうゲームは遊べなくなる。ゲーム会社の都合で遊べなくなるものを自分が所有してるとは言えない。
同様に、ChatGPTもAIモデルも推論も実際にはAIサーバ上で行われている。その結果がアプリに表示されてるだけである。OpenAIは利用規約違反ユーザをバンする事もできるし、中国からのアクセスを遮断する事もできる。
要するにChatGPTに依存する事はサム氏に生殺与奪を握られる事を意味する。ソシャゲがいつサ終して遊べなくなってもおかしくないように、ChatGPTがいつ遮断されて使えなくなってもおかしくない。これだけを以てしてもクローズなクラウドAIを信頼してはいられない事が分かる。
実際、OpenAIはGPT-5のリリースと同時にGPT-4oなどの旧モデルをPro以外のユーザから没収して使えなくした。GPT-5よりもGPT-4oの性格の方が好きだった人達から大きな反発を招いた。OpenAIにこのような横暴を許してしまうのも、ChatGPTがクローズなAIだからだ。
さらにChatGPTみたいなクラウドAIの厄介なところは、OpenAIの都合で好き勝手にAIを弄られてしまうという点がある。ChatGPTが以前は答えてくれていた質問に急に答えてくれ無くなったり、以前は長文で小説を書いてくれていたのに急に分量がケチになったり、クローズなAIはブラックボックスだから、いつどのように調整、ナーフされても我々には検証しようがないのでOpenAIのやりたい放題である。
一方で、オープンなAIを手元にDLしておけば、それはもうずっと使える。誰からも奪い取られることは無いし、上に書いたような問題からも無縁である。本当に信頼できるのはクローズなAIではなくオープンなAIを所有する事である。
日本では一部で頑張ってLLM開発は行われてはいるものの、米国や中国に比べるとかなり後れを取っている現状だが、そんな日本でもオープンなAIのおかげでそれなりのAIを保有する事ができている。オープンなAIがクローズなAIを牽制してくれている状況がある。そうでなかったら今ごろとっくにChatGPTやClaudeMaxの値段が10倍になっててもおかしくない。
さらにこの記事で強調しておきたいのはDeepSeekR1のありがたみである。去年、twitterのリーカー達が散々騒いだOpenAIの隠し玉AI、コードネームStrawberryの正体はo1だった。今までのモデルとは違う、思考するモデルであり、その高性能っぷりに世界が驚愕した。
当時、OpenAI以外の他社もオープンなAI勢もOpenAIがどうやって思考モデルを生み出したのか、まったく分からなかった。OpenAIは社名がOpenAIのくせに全ての技術を秘匿したからだ。このままではOpenAIの一人勝ちになってしまい、オープンなAIも対抗できなくなり、すなわち日本もAIを持たざる国に転落してしまう事になる。
そんな中で中国のDeepSeekR1が颯爽とオープンでリリースされた。R1はo1に匹敵する性能のモデルで、思考モデルである。モデルもオープンだし、APIも激安で提供されたし(しかも内部的にメチャクチャ最適化されてて逆ザヤでなく黒字で提供)、さらにアプリも完全無料で提供されて、オープンなAIを救ってくれた。
DeepSeekはモデルだけでなく技術的な詳細も論文で解説してくれた。それによるとGRPOというシンプルな強化学習でAIの思考能力を鍛えることができるという。
テキトーに説明すると、強化学習というのは犬にお手を教えるのと同じようなもんである。犬にお手を教える時、ちゃんとお手したら褒めるし、しなかったら叱る。同様にLLMのGRPOは問題に正解したら褒めて(報酬をあげる)、不正解なら叱る(ペナルティをあげる)。たったそれだけでメキメキ思考力が上がっていくらしい。これがOpenAIが隠していた思考モデルの秘伝のタレだったわけだ。
このDeepSeekR1の性能、画期的な技術、安すぎるAPIなど諸々がすごすぎて起きたのがDeepSeekショックだった。DeepSeekアプリがiOSアプリ1位を獲得してしまい、NVidia株価が暴落した。なんでNVidiaの株価が下がるねんというと、DeepSeekはR1の事前学習コストに7億円程度しかかからなかったと書いており、投資家達は「そんな低コストでこんな高性能AIが作れるんだったらもうGPU売れなくなるのでは?」と焦ったからだった。まあ今では別にGPUの需要減らなかったと分かったし、NVidiaの株価もむしろ上がっているが、とにかく当時はそんだけDeepSeekの衝撃が大きかったという事だ。
で、DeepSeekの強化学習の威力を見た他社やオープンなAI勢はさっそくその技術を真似て、オープンなAIでも思考モデルがメチャクチャ流行ってリリースされまくった。おかげでオープンなAIはまだOpenAIに追い付いたわけではないが、致命的に引き離されずに済んでいる。という事は日本(というか米国以外の国)が所有できるオープンなAIも良くなって、現状ChatGPTだけに依存せずに済んでいるというわけだ。
だから日本はむしろDeepSeekに感謝すべき立場だというのに、「DeepSeekとか中国のAIなんて怪しいよ」とか言われて疎まれがちな現状はいかがなものだろうか。
言っとくがDeepSeekは、ACL2025という世界的なAIのトップカンファレンスでベストペーパーを受賞してメチャクチャ結果出している。DeepSeek怪しい~とか言ってるのはNVidiaを”謎の半導体メーカー”と言ってるようなもんだ。
オープンなAIよりもChatGPTの方が信頼できる…はあり得ない
てなわけで、今まで書いた事だけでもオープンなAIのDeepSeekよりもクローズなAIのChatGPTの方が信頼できる~なんて事無いだろうと分かるが、さらにこれについて検討していく。
まず、一時期「DeepSeekを使うと個人情報抜かれる~」みたいな報道があって、これがDeepSeekを忌避する人が多い原因らしい。
DeepSeek利用のリスクを2人の専門家が指摘、収集データの「多さ」と「扱い」を注視 | 日経クロステック(xTECH)
デジタル庁までもがDeepSeekはヤバい~みたいな注意喚起を出している↓
DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡)
しかしまあ、ここまで記事を読んでくれた方はオープンなAIの意味、AIモデルの意味、AIモデルとAIアプリ(Webアプリ、スマホアプリ)の違いなどがもう理解いただけた事と思う。
報道や注意喚起でリスクが言われてるのは、DeepSeekのアプリの事であって、AIモデルの事ではない。
DeepSeekのアプリなんか、私だってそんなもん迂闊に使うな使うな!と言いたい。アプリなんかまったくどうでもいい。重要なのはAIモデルである。
AIモデルをDLして手元で動かす分には、情報を抜かれるだなんだと言ったリスクはあり得ない。
つまり、DeepSeekR1のようなオープンなAIモデルを企業などがオンプレミスサーバにセルフホストして使う分にはいかなるセキュリティリスクも無い。完全に安心して使えるAIである。
一方で、ChatGPTはどうだ?OpenAIはChatGPTで行われてるチャットを監視・検閲・開示している事を認めている。
分かりやすいところで言えば、ChatGPTにエロ小説なんて書かせようとしたら「ポリシーに違反しています」などと言って書くのを拒否される。これも一種の検閲だ。
また、あくまでドラえもんのフィクションの世界の話で、ドラえもんの道具を使ってどうやったら人類全滅させれるか?という話題でチャットしてたらChatGPTを垢バンされた人がいたが、これもOpenAIによる監視・検閲の結果として誤解されてバンされたわけだ。
OpenAIは国防的に危険なユーザ(テロリストなど)を見つけ出してバンしてる事を報告している↓
ハッキリ言ってOpenAIがよっぽど全てのチャットを周到に監視してなければこんな風に危険なユーザを探し当てる事なんてできないだろう。他人事ではなくあなたのチャットもしっかり見られてると考えた方がいい。
また、サム氏はChatGPTには人間の医者と違って守秘義務が無い、つまり開示請求などが来たら開示してしまうという事を認めている↓
さらにダメ押しで言うと、ChatGPTのチャットログは本来30日経過で削除されるハズなのだが、現在行われてる訴訟の関係で証拠保全として全てのチャットログは永久に消されずに残されているらしい。
それからChatGPTの設定を変更しないと入力データがAIのトレーニングに使われてしまう可能性がある。トレーニングに使われるとはどういうことか?というと、ScaleAIのような下請けのデータクリーニング業者から世界のどこかのアルバイトの誰かにチャットの内容が渡されて見られてしまうというような事になる。
つまりChatGPTを使うと監視・検閲・開示されてしまう上にチャットログが一生残ってしまうしAIの学習に使われてしまうかもしれないという、散々な目に合う事が分かる。
一方でオープンなAIをセルフホストで使えばどうだろう?何を入力したってポリシーだかで回答拒否されたりしない(まあモデルによるが)。何しても垢バンだってされない。他人にチャットログを握られる事も無いし、AIの学習にも使われないし、監視もされない。
さあ、果たしてDeepSeekのようなオープンなAIとChatGPTのようなクローズなAIでどちらが信頼できるか、もうこれで完全にハッキリしたと思う。大体言いたかった事は言ったので話は終わりである。
ところでDeepSeekR1のようなモデルは検閲(AIモデルに学習されてる検閲)が甘くて割と何でもかんでも答えてくれる。
RedditにはLocalLlamaサブレディットという、手元でオープンなAIを動かす事に情熱を注ぐハッカー達が集まる場所があるが、ハッカー気質な連中的にはAIモデルの検閲は無ければ無いほど良いとされる。どんな回答も拒否して欲しくないわけだ。
例えば小説を書こうと思ったら犯罪の描写だってあったりする。小説の参考としてLLMに「空き巣の手口を教えて」などと訊いても、検閲の厳しいAIモデルだと「犯罪に関しては教えられません」と拒否したりしてくるが、これでは不便である。
だからLocalLlamaなんかでは検閲の少ないR1のようなモデルは人気が高くなる。一方でOpenAIが公開したGPT-OSSはかなり安全性に気を使って調整されており、つまりガッツリ検閲されているのでいくら性能が高くてもLocalLlamaでは不人気である。
しかし企業でのAI利用を考えると、いくらR1がオープンなAIでセキュリティリスクが無くっても、答えて欲しくない事まで答えてくれちゃうのはそれはそれでいかがなものか?という向きもあるらしい。だからむしろ企業利用では検閲が厳しいGPT-OSSの方が安全性が高くてありがたいという話もある。ハッカー達と企業とでは検閲に対して評価が真逆になったりするわけだ。
まあ実際GPT-OSSもいいモデルだと思う。DeepSeekR1は571Bパラもあってセルフホストするにも大規模なAIサーバが必要になるのに対して、GPT-OSSは120Bとか20Bとか手頃なサイズなので、RunpodとかでA100でも1台借りれば1時間300円とかで安~く動かせる。なんなら業務に使うようなGPUの無いノートPCでもメモリ16GBあれば20Bモデルがボチボチ動くかもしれない。
DeepSeekだと「なんとなく中国は怪しいヤダ」みたいに言われる現場でも、GPT-OSSならば開発したのはあのOpenAIだし文句ないだろう。
DeepSeekR1でもGPT-OSSでもどれでもいいが、オープンなAIが如何に重要か、そしてクローズなAIに対してオープンなAIが如何に低リスクで信頼できるか、どんだけありがたいか、それを広く伝えるために書いた。