728: 山師さん 2025/01/29(水) 13:08:30.77 ID:RjmokD4t0
中国の人工知能(AI)スタートアップ企業ディープシークが世界を驚かせた最新のAIモデルは、米オープンAIのコンテンツを学習させる手法を用いて開発された。第2次トランプ政権でAIの政策責任者を務めるデービッド・サックス氏が指摘した。
サックス氏は28日、FOXニュースに出演し、ディープシークは「知識蒸留」と呼ばれる手法を採用していると説明した。新しいAIモデルが既存モデルに何百万もの質問を繰り返すことで、既存モデルの知識を学び、推論プロセスを模倣する開発手法だ。
シリコンバレーの著名ベンチャーキャピタリストとして知られるサックス氏は、「ディープシークがオープンAIのモデルから知識を蒸留したという確固たる証拠がある」と指摘。「オープンAIがこれを喜んでいるとは思えない」と話した。
5: 山師さん 2022/01/21(金) 22:46:36.28 ID:iiXyctrJp 🇺🇸バークレイズ(NFLX) 目標株価: $675→$425 🇺🇸JPモルガン(NFLX) 目標株価: $725→$605 🇺🇸BMO(NFLX) 目標株価: $700→$650 🇺DZ […]
8: 山師さん 2022/07/09(土) 13:17:33.57 ID:da1wzjBOM こっちか? KRUSどうしようまだ上がる気はするんだけど来週もうCPIじゃん? 17: 山師さん 2022/07/09(土) 13:31:25.41 ID:WqnYFjqi0 >>8 どうせ下がってくるんじゃないの 23: 山師さん 2022/07/09(土) 13:33:42.91 ID:d […]
30: 山師さん (ワッチョイ 85cf-Q6Op [182.165.4.37]) 2020/09/03(木) 21:36:53.57 ID:PsCYj28P0 WATCH: SpaceX to Launch Falcon 9 Starlink mission from LC-39A @Countdown 08:46am ET https://youtu.be/At4CbXSjLrw なにこれ S […]
756: 山師さん 2025/01/29(水) 13:12:36.72 ID:e5pmyUbV0
>>728
「知識蒸留(Knowledge Distillation)」は、機械学習におけるモデル圧縮技術の一種であり、大規模なAIモデル(教師モデル)から小型のAIモデル(生徒モデル)へ知識を効率的に移転する手法のこと。
基本的な仕組み
1. 教師モデルの出力を利用
既存の大規模モデル(例:GPT-4)が大量のデータを学習済みであるとする。
このモデルに対して膨大な質問を投げかけ、その出力(回答)を収集する。
2. 生徒モデルの学習
小型のモデル(例:GPT-3相当)が、教師モデルの出力を模倣するように学習。
通常の教師あり学習では「正解ラベル(例:猫の画像 → ‘猫’)」を使うが、知識蒸留では「教師モデルの予測(例:‘猫:95%、犬:5%’)」を活用する。
3. 温度パラメータの調整
知識蒸留では、出力の確率分布を調整する「温度(Temperature)」パラメータが使われる。
高温(Soft Target)だと確率分布が滑らかになり、微妙な違いも学習可能。
4. 生徒モデルの性能向上
小型モデルが、教師モデルの高度な推論やパターン認識を学習し、元のデータセットを使わなくても高精度のAIが得られる。
利点
計算コストの削減:小型モデルなので、推論時のリソース消費が少ない。
高速な処理:モバイル端末や組み込みシステム向けに最適化できる。
知識の圧縮:大規模モデルの持つ情報をコンパクトにまとめられる。
問題点
知的財産権の問題:第三者のAIモデルから知識を「蒸留」する場合、それが許可されたものでなければ倫理的・法的に問題になる可能性がある。
品質の劣化:生徒モデルは教師モデルの単純化版であり、完全に同じ性能を発揮できるとは限らない。
今回のケースとの関係
「ディープシーク」が「オープンAIのモデルから知識を蒸留した」とされているが、これは「知識蒸留」の技術を使ってGPT-4などのモデルに大量の質問をし、その回答データを使って独自のモデルを学習させた可能性を示唆している。もしこれがオープンAIの利用規約違反や知的財産権の侵害に当たるなら、倫理・法的な問題になりうる。
770: 山師さん 2025/01/29(水) 13:15:52.95 ID:vK/e6MMD0
>>756
なるほどねぇ
まさに天才的発想だけど、教師モデルがないと成り立たないんだな
なるほどねぇ
まさに天才的発想だけど、教師モデルがないと成り立たないんだな
850: 山師さん 2025/01/29(水) 13:33:09.21 ID:RjmokD4t0
>>756
AAPL「これや
AAPL「これや
874: 山師さん 2025/01/29(水) 13:40:43.10 ID:FY+jac/h0
>>756
OpenAIはo3のオリジナルは公開しないで自社で蒸留済みのo3だけ公開すればいいんじゃね?
OpenAIはo3のオリジナルは公開しないで自社で蒸留済みのo3だけ公開すればいいんじゃね?
882: 山師さん 2025/01/29(水) 13:43:27.94 ID:RjmokD4t0
>>874
ちゃんと読めば蒸留が防ぎにくいのがわかる
ちゃんと読めば蒸留が防ぎにくいのがわかる
730: 山師さん 2025/01/29(水) 13:09:02.22 ID:xQ7Fo/b60
734: 山師さん 2025/01/29(水) 13:09:29.72 ID:ZEPRmfcJ0
>>730
それはまあそうだろうなって
それはまあそうだろうなって
737: 山師さん 2025/01/29(水) 13:09:41.34 ID:on0in3zr0
>>730
これもう完全に戦争だろ
これもう完全に戦争だろ
744: 山師さん 2025/01/29(水) 13:10:39.50 ID:B7pwYO/O0
>>730
仲良くしてほしい🤭
仲良くしてほしい🤭
745: 山師さん 2025/01/29(水) 13:10:42.55 ID:09/ceZTd0
>>730
よほど都合が悪いようだなm9
よほど都合が悪いようだなm9
764: 山師さん 2025/01/29(水) 13:14:16.01 ID:Y36i0QNc0
>>730
米国のIPアドレスに偽装した中国国内からの攻撃の線もあるよな
中国人だってNVDA株大好きだろ🙄
米国のIPアドレスに偽装した中国国内からの攻撃の線もあるよな
中国人だってNVDA株大好きだろ🙄
795: 山師さん 2025/01/29(水) 13:20:01.91 ID:oYpO4Q8h0
>>764
中国内も競争激しいからねえ
中国内も競争激しいからねえ
892: 山師さん 2025/01/29(水) 13:45:23.88 ID:SUGcrOqP0
>>730
草
草
748: 山師さん 2025/01/29(水) 13:11:19.56 ID:u7pOGcHu0
その他LLMがdeepseekを参考にしまくり始めたからな
もう世界が動いてしまってるからどうなるやら
もう世界が動いてしまってるからどうなるやら
802: 山師さん 2025/01/29(水) 13:21:51.20 ID:yRscfY/b0
deepseek側もこのまま黙ってるわけないだろうしまたNVDA下がると思ってる
その時に買うよ
その時に買うよ
引用元: https://egg.5ch.net/test/read.cgi/stock/1738109859/