【米国株】知識蒸留の基本的な仕組みとは!?サイバー攻撃はどこから…?


728: 山師さん 2025/01/29(水) 13:08:30.77 ID:RjmokD4t0

中国の人工知能(AI)スタートアップ企業ディープシークが世界を驚かせた最新のAIモデルは、米オープンAIのコンテンツを学習させる手法を用いて開発された。第2次トランプ政権でAIの政策責任者を務めるデービッド・サックス氏が指摘した。

サックス氏は28日、FOXニュースに出演し、ディープシークは「知識蒸留」と呼ばれる手法を採用していると説明した。新しいAIモデルが既存モデルに何百万もの質問を繰り返すことで、既存モデルの知識を学び、推論プロセスを模倣する開発手法だ。

シリコンバレーの著名ベンチャーキャピタリストとして知られるサックス氏は、「ディープシークがオープンAIのモデルから知識を蒸留したという確固たる証拠がある」と指摘。「オープンAIがこれを喜んでいるとは思えない」と話した。

NO IMAGE

28: 山師さん 2022/01/12(水) 07:14:13.90 ID:qdgGazeZ0 +10.28% JD JD.COM +5.43% COIN コインベース +4.79% TTD トレード・デスク +4.68% PYPL ペイパル +4.33% DOCU ドキュサイン +4.20% XOM エクソンモービル +4.02% AMD アドバンスト・マイクロ・デバイス +3.34% OKTA […]

NO IMAGE

637: 山師さん (テテンテンテン MMee-ZKwM [133.106.33.156]) 2021/05/27(木) 00:47:34.63 ID:hBA/R5ljM EHに飛び乗って良かった 飛べたよ俺 648: 山師さん (テテンテンテン MMee-RLXC [133.106.55.185]) 2021/05/27(木) 00:49:17.75 ID:fN+1BgeaM >>6 […]


756: 山師さん 2025/01/29(水) 13:12:36.72 ID:e5pmyUbV0

>>728
「知識蒸留(Knowledge Distillation)」は、機械学習におけるモデル圧縮技術の一種であり、大規模なAIモデル(教師モデル)から小型のAIモデル(生徒モデル)へ知識を効率的に移転する手法のこと。

基本的な仕組み

1. 教師モデルの出力を利用

既存の大規模モデル(例:GPT-4)が大量のデータを学習済みであるとする。

このモデルに対して膨大な質問を投げかけ、その出力(回答)を収集する。

2. 生徒モデルの学習

小型のモデル(例:GPT-3相当)が、教師モデルの出力を模倣するように学習。

通常の教師あり学習では「正解ラベル(例:猫の画像 → ‘猫’)」を使うが、知識蒸留では「教師モデルの予測(例:‘猫:95%、犬:5%’)」を活用する。

3. 温度パラメータの調整

知識蒸留では、出力の確率分布を調整する「温度(Temperature)」パラメータが使われる。

高温(Soft Target)だと確率分布が滑らかになり、微妙な違いも学習可能。

4. 生徒モデルの性能向上

小型モデルが、教師モデルの高度な推論やパターン認識を学習し、元のデータセットを使わなくても高精度のAIが得られる。

利点

計算コストの削減:小型モデルなので、推論時のリソース消費が少ない。

高速な処理:モバイル端末や組み込みシステム向けに最適化できる。

知識の圧縮:大規模モデルの持つ情報をコンパクトにまとめられる。

問題点

知的財産権の問題:第三者のAIモデルから知識を「蒸留」する場合、それが許可されたものでなければ倫理的・法的に問題になる可能性がある。

品質の劣化:生徒モデルは教師モデルの単純化版であり、完全に同じ性能を発揮できるとは限らない。

今回のケースとの関係

「ディープシーク」が「オープンAIのモデルから知識を蒸留した」とされているが、これは「知識蒸留」の技術を使ってGPT-4などのモデルに大量の質問をし、その回答データを使って独自のモデルを学習させた可能性を示唆している。もしこれがオープンAIの利用規約違反や知的財産権の侵害に当たるなら、倫理・法的な問題になりうる。

 
770: 山師さん 2025/01/29(水) 13:15:52.95 ID:vK/e6MMD0
>>756
なるほどねぇ
まさに天才的発想だけど、教師モデルがないと成り立たないんだな
 
850: 山師さん 2025/01/29(水) 13:33:09.21 ID:RjmokD4t0
>>756
AAPL「これや
 
874: 山師さん 2025/01/29(水) 13:40:43.10 ID:FY+jac/h0
>>756
OpenAIはo3のオリジナルは公開しないで自社で蒸留済みのo3だけ公開すればいいんじゃね?
 
882: 山師さん 2025/01/29(水) 13:43:27.94 ID:RjmokD4t0
>>874
ちゃんと読めば蒸留が防ぎにくいのがわかる
730: 山師さん 2025/01/29(水) 13:09:02.22 ID:xQ7Fo/b60

DeepSeekサイバー攻撃、中国メディア「全て米国から」
https://i.imgur.com/zHEXcAP.jpeg

wwwwww

 
734: 山師さん 2025/01/29(水) 13:09:29.72 ID:ZEPRmfcJ0
>>730
それはまあそうだろうなって
 
737: 山師さん 2025/01/29(水) 13:09:41.34 ID:on0in3zr0
>>730
これもう完全に戦争だろ
 
744: 山師さん 2025/01/29(水) 13:10:39.50 ID:B7pwYO/O0
>>730
仲良くしてほしい🤭
 
745: 山師さん 2025/01/29(水) 13:10:42.55 ID:09/ceZTd0
>>730
よほど都合が悪いようだなm9
 
764: 山師さん 2025/01/29(水) 13:14:16.01 ID:Y36i0QNc0
>>730
米国のIPアドレスに偽装した中国国内からの攻撃の線もあるよな
中国人だってNVDA株大好きだろ🙄
 
795: 山師さん 2025/01/29(水) 13:20:01.91 ID:oYpO4Q8h0
>>764
中国内も競争激しいからねえ
 
892: 山師さん 2025/01/29(水) 13:45:23.88 ID:SUGcrOqP0
>>730
 
748: 山師さん 2025/01/29(水) 13:11:19.56 ID:u7pOGcHu0
その他LLMがdeepseekを参考にしまくり始めたからな
もう世界が動いてしまってるからどうなるやら
 
802: 山師さん 2025/01/29(水) 13:21:51.20 ID:yRscfY/b0
deepseek側もこのまま黙ってるわけないだろうしまたNVDA下がると思ってる
その時に買うよ

引用元: https://egg.5ch.net/test/read.cgi/stock/1738109859/