• ホラー
  • エッセイ・ノンフィクション

DeepSeekの躍進は現実世界に起きたなろう展開?


 1月下旬になって急にトレンドに上がり出したDeepSeekなる中国発のAIモデル(ならびに同名の会社)。

 AppStoreで日米ともに1位取るわ、長い栄光が確定していたはずの半導体メーカー「NVIDIA」の株価を暴落させるわ、どえらい騒ぎになっている。

 何にも知らない方向けに漫画風に話すなら、以下の通りになるか。



 ChatGPTの生みの親が作った最強スペック・特大サイズのAIに、その10分の1程度しか情報(マナ)がないはずのチビルーキーAIが拮抗した。
 それどころか、燃料の消費はサイズに依存して大きくなるため、後者の方が破格の安さで運用ができる。
 当然、みんな食いつく。
 例えば答えのない研究開発の支援に、圧倒的な知識と深い洞察力を併せ持ったAIを用いることは鉄則となっているが、GPT陣営が提示する最高位モデルは値段が非常に高かった。
 対してDeepSeekを用いた場合は、たったの20分の1程度のコストで済ませることが出来る。

「な……なぜだ……!? AIの世界では情報(マナ)の量がそのまま強さに繋がるはずだ……」 と苦渋の顔を浮かべるGPT陣営に、若い彼は言い放ちました。

「【濃縮】したんだよ。アンタらが見せつけるようにまき散らしたマナの一つ一つをな」

 その台詞の後、DeepSeekは破格のモデル、その作り方の一部を全世界に公開。
 世界に激震が走る。



 といったところである。

 この騒動には色々な要素が絡み合っていて、

 まず、DeepSeekが10分の1の情報を持てなかったのは、アメリカが中国にAIの命たる半導体の輸出規制をしたためとされている。
 相手よりも著しく貧相な装備で戦う必要があったということだ。
 皮肉なことに、その結果として、DeepSeekはAIの常識「量こそが正義(=半導体を持つものが圧倒的有利)」を打ち砕くことになった。

 また、DeepSeekの上位モデルの作成には、従来ではあくまでも補助的な役割(ロール)に甘んじていた「強化学習」がふんだんに用いられており、
「最低限の地盤さえ固まってしまえば、実はそれ以上は人の情報は要らない(=AI任せの方が良い)のでは?」という新たな説を、圧倒的な実績と一緒に提案したのである。

 これらすべてが、一般人・専門家の両方にとって予想外の出来事だったわけだ。


……とここまでなら、痛快な話として終わりとなるのだが、そういうわけにもいかない。

 DeepSeekは「他のAIの結果や性質をまんま学習材料にしちゃダメ」という禁を破っている。これもDeepSeekのニュースとして有名だろう。
 それをやり出すと、膨大なコストをかけてようやく生み出された傑作AIが、ぽっと出の輩に実質盗まれることになるためだ。

 しかし、「DeepSeekめ、盗人猛々しいとはこのことか。さっさと潰れてしまえ!」……とはならない。

 幸か不幸かDeepSeekが成し遂げたことは、物量・資金の暴力状態だったAIの世界に風穴をあけた。
「AIの性能には、単純な金以外の要素が絡んでいる。その要素を解き明かした者こそがシンギュラリティを起こす資格を持つ」
 この事実が個人、または小規模の開発者にとって、どれだけの励みになったことか。

 そして、それ以前の問題として、AIそのものが持つ「みんなの積み上げた実績を学習(吸収)する」という行為の是非について、誰も回答を出すことができないのだ。

「私が悪いのなら、あなたも悪い」

 グレーのモノを黒と見做した瞬間、AI開発におけるかなり基礎的な前提が破綻することになる。
 いや、AIに限った話でもない。何をするにしても完全に他人の影響を取り除くことは出来ないし、一切の逸脱なしに生きていく事も出来ない。
(人生で一度でも右側通行や信号の指示を破ったことがなく、相手に一切の悪感情も抱かずに生きていけるなら、反論してもよいが)

 仮に可能だとしても、それをしたら文明の発展は間違いなく遠のく。既に決められた枠の中で、自分の力だけで生きていく。なんとディストピアじみた世界だろう。

 だから止まらない。

……とまあ、若干の脚色は入れつつも、DeepSeekがなぜここまで大きな騒動になっているのかをまとめた。

 AIの可能性とリスク、光と闇。
 DeepSeekはその両極端を一度に見せてくれた。

 来年度の道徳あたりで、議題に挙げてもいいかもしれない。
 子どもたちがどういった討論をするのか、気になるところだ。

2件のコメント

  • 大変興味深く読ませていただきました。

    この話題、人工知能は門外漢な自分は、技術的な部分を調べようとしても混乱するだけだとわかっていたので、ほったらかしにしていました。

    ですが、このノートを見て少し分かったような気がします。

    気になるところは、
    ”「最低限の地盤さえ固まってしまえば、実はそれ以上は人の情報は要らない(=AI任せの方が良い)のでは?」”
    です。
    これって、更新限界をさっさと見切る代わりに、コスパの良い製品を適所で使用する、「古くなったら新しいものに買い替える」使い捨てで、「出来ることだけやらせる」割り切った運用、という物なのでしょうか?
    それは技術的な進歩の反面、方向性だけ見ると、Deep Laerningや遺伝子アリゴリズム以前の時代に回帰しているような気もします。

    長文、失礼いたしました。
  • コメントありがとうございます。
    ご質問について適切かはわかりませんが、回答致します。
    「最低限の地盤〜」の件で伝えたかったのは、「優れた生成AIの定石」が根本から覆ったことです。
    生成AIの定石は、ネット上に転がっているウィキペディアをはじめとした記事や文献、論文などを吸収する、すなわち、人が既に出した膨大なやりとりをインプット(教師)として学習をするというものでした。
    将棋で例えると、今までの膨大な棋譜データ、人が知る定石の情報を読み込ませることで、強くなるということです。

    この理屈は強くなるのも納得しやすいですが、代わりに世界中の、何十年分ものデータをかき集めるための莫大な労力に加え、それをサーバに管理する維持費、それらのデータをすべて読み込み(我々が見たこともない容量かと思われます⋯⋯)、現実的な反応速度を実現する必要がありました。

    そのために高性能(高価)な半導体を惜しげもなく投入し、管理専用のサーバまみれの建物(データセンター)を建ててまでAI開発に臨んだわけです。

    対して、そのような物量作戦が採れないDeepSeekが選んだ戦略は、「だったら選りすぐりのデータやルールを与えておくかわりに、定石すらもAIに考えさせればいいじゃん」というものでした。
    DeepSeek(の開発メンバー)はGPTの膨大な部位のうち、特にGPTに深い影響を与えている部分だけを抽出(これを蒸留と呼びます)、それを参考として与えた上で「より良い精度や抽象的な思考を引き出すにはどうしたらよいか」という作業をDeepSeek(AIモデル)自身に検討させたわけです。
    そしてそれが成功したというわけです。

    この現象自体はDeepSeekの前の時点で、AlphaGoという囲碁のAIでも起こっていました。
    AlphaGoZeroという、AlphaGoをベースに人の棋譜を一切見ずに自分自身と延々と対局し続けたモデルが、膨大な棋譜を取り込んで作られた前モデル(すなわちAlphaGo)相手に百戦百勝したという例があります。

    つまり、ある程度のレベルまで達したAIは、人の手を借りずとも自分自身をより高める可能性があるのです。
    人自身すらも確たる答えを持っていない以上、AI任せにする選択も妥当なのでは?(それで結果も出ているし) という論理です。

    そのため、質問として挙げられていた、使い捨ての割り切った運用というものではありません。
コメントの投稿にはユーザー登録(無料)が必要です。もしくは、ログイン
投稿する