658: 山師さん 2024/09/15(日) 16:35:05.57 ID:nDjBf1YO0
LLMに大きなパラメータはいらなくて
小さいモデルでも推論能力さえあれば反復させれば十分な出力があって知識なんて外部から取ればええってパラダイムシフトが起きたから
openaiやanthropicが持ってた巨大LLMのアドバンテージは無くなった感じやな
小さいモデルでも推論能力さえあれば反復させれば十分な出力があって知識なんて外部から取ればええってパラダイムシフトが起きたから
openaiやanthropicが持ってた巨大LLMのアドバンテージは無くなった感じやな
182: 山師さん 2022/02/16(水) 19:19:12.76 ID:7EXOG7LY0 どこがレバナス全力なんだよ 188: 山師さん 2022/02/16(水) 19:20:33.55 ID:w8ti5Aypa >>182 こんな素人考え通りに行くかな? 議事録好感 NVDA決算好感 これだろ 193: 山師さん 2022/02/16(水) 19:21:15.69 ID:W […]
10: 山師さん 2022/01/07(金) 17:13:00.15 ID:mROvymnCa ウォール街一回行ってみたいわ 行ったことある人おる? 14: 山師さん 2022/01/07(金) 17:14:16.87 ID:HkZ8deFO0 >>10 牛のオブジェあるよ 17: 山師さん 2022/01/07(金) 17:14:55.31 ID:jmVWwzlGd >> […]
888: 山師さん 2022/01/23(日) 00:32:13.62 ID:VicS/lAa0 インフレはまだ続いているが景気指数はヨコから↓なんだよな これはスタグフの前兆でそれはFRBも認識はしている筈 しかしバイデンにOPECを動かす力はないしSDGSで自滅のパターンか 905: 山師さん 2022/01/23(日) 00:39:04.92 ID:OQKpr/m90 >>888 […]
662: 山師さん 2024/09/15(日) 16:36:36.31 ID:e4k8/VMh0
>>658
o1ってそういうことなの?
o1ってそういうことなの?
667: 山師さん 2024/09/15(日) 16:39:10.21 ID:nDjBf1YO0
>>662
そうやで
推論を繰り返す事に計算資源を使う事で性能が上がる証明になった
知識はRAGなり外部から取れば良くなって
こうなると大きいモデルの方が推論繰り返すリソース大きくなって不利になる
そうやで
推論を繰り返す事に計算資源を使う事で性能が上がる証明になった
知識はRAGなり外部から取れば良くなって
こうなると大きいモデルの方が推論繰り返すリソース大きくなって不利になる
675: 山師さん 2024/09/15(日) 16:41:44.72 ID:vtzVkjAT0
>>667
そうは言っても一定量は必要そう言語(日本語とか)カバーも必要だし
あとマルチモーダル想定するとか、いろんな要素があるしな
そうは言っても一定量は必要そう言語(日本語とか)カバーも必要だし
あとマルチモーダル想定するとか、いろんな要素があるしな
689: 山師さん 2024/09/15(日) 16:47:17.19 ID:nDjBf1YO0
>>675
現在の一般的な家庭用PCで動く8Bモデルでも既に十分な言語能力と推論能力はあるからな
anthropicが運用してるような3兆パラメータのクソデカLLMは絶対いらなくなるわ
そもそも運用するのに数兆円規模の計算資源と維持費かかるからか
現在の一般的な家庭用PCで動く8Bモデルでも既に十分な言語能力と推論能力はあるからな
anthropicが運用してるような3兆パラメータのクソデカLLMは絶対いらなくなるわ
そもそも運用するのに数兆円規模の計算資源と維持費かかるからか
703: 山師さん 2024/09/15(日) 16:51:45.37 ID:QClqZ0Ds0
>>689
最終的にはバランスの問題になるのか
最終的にはバランスの問題になるのか
705: 山師さん 2024/09/15(日) 16:52:12.03 ID:vtzVkjAT0
>>689
まあ、今は十分だと思っても、もっと良いものが出たら物足りなくなるのはITだと毎度の話
どうせGPU性能も上がる、世の中に存在するGPUの総量も増える
資金がショートしない限り、足かせつける必要がない
まあ、今は十分だと思っても、もっと良いものが出たら物足りなくなるのはITだと毎度の話
どうせGPU性能も上がる、世の中に存在するGPUの総量も増える
資金がショートしない限り、足かせつける必要がない
716: 山師さん 2024/09/15(日) 16:56:29.02 ID:nDjBf1YO0
>>705
将来的には計算資源の性能も飛躍的に上がって大きなモデルもスマホのメモリで動く事になるやろうけどな
今後数年は小さいモデルを基準にして専門知識詰め込んだモデルをマージしたりRAGで知識量を解決するモデルが主流になると思うで
将来的には計算資源の性能も飛躍的に上がって大きなモデルもスマホのメモリで動く事になるやろうけどな
今後数年は小さいモデルを基準にして専門知識詰め込んだモデルをマージしたりRAGで知識量を解決するモデルが主流になると思うで
729: 山師さん 2024/09/15(日) 17:06:50.32 ID:vtzVkjAT0
>>716
超大規模モデルも、効率化するモデルもどっちも出てくるだろう
今の不足分を補うにはRAGはいいよね。ただRAGの知識も全部飲み込んだモデルが出てくることは期待してる
エッジじゃ動かなくてもデータセンターで動いてくれればいいんだし
超大規模モデルも、効率化するモデルもどっちも出てくるだろう
今の不足分を補うにはRAGはいいよね。ただRAGの知識も全部飲み込んだモデルが出てくることは期待してる
エッジじゃ動かなくてもデータセンターで動いてくれればいいんだし
665: 山師さん 2024/09/15(日) 16:38:23.71 ID:qGt+OV3Q0
>>658
いちおう画像生成とかの精度には必要かも
いちおう画像生成とかの精度には必要かも
672: 山師さん 2024/09/15(日) 16:40:44.64 ID:vtzVkjAT0
>>658
>知識は外部から
これが本当に活きるならGoogleと一体化してるGeminiがぶっちぎりなんよ
あと一応GPT-4oも外部URLアクセスができるから簡易的ながら出来る
外部URLアクセスできないClaudeは残念
679: 山師さん 2024/09/15(日) 16:43:49.20 ID:vtzVkjAT0
日本人だと早い段階から(金がなくて規模で勝負できないから)効率化を求めだすけど
LLMの知能爆発は結局スケーリング則の先に起こるんじゃないかな
LLMの知能爆発は結局スケーリング則の先に起こるんじゃないかな
690: 山師さん 2024/09/15(日) 16:47:17.79 ID:UuOXPzpid
>>679
効率化というか企業顧客へのカスタマイズとサポートだけで稼ぐ感じだな
日本のSIはコストをかけるつもりもないしリスクを取る気もないんだよ
全てが人月商売で回ってる
707: 山師さん 2024/09/15(日) 16:52:54.43 ID:QClqZ0Ds0
>>690
惰性の延長でしかもの見れないやつがほとんどだからなあ
惰性の延長でしかもの見れないやつがほとんどだからなあ
708: 山師さん 2024/09/15(日) 16:52:55.84 ID:vtzVkjAT0
>>690
まあ、無駄な仕事を省くだけでも十分価値あると思うけど
まあ、無駄な仕事を省くだけでも十分価値あると思うけど
727: 山師さん 2024/09/15(日) 17:05:46.27 ID:IXZalmQH0
>>679
せやね、Transformerモデルは計算資源つぎ込めばつぎ込むほどスケーリング則に忠実に知能が伸びてるからAGI到達までは時間の問題
せやね、Transformerモデルは計算資源つぎ込めばつぎ込むほどスケーリング則に忠実に知能が伸びてるからAGI到達までは時間の問題
684: 山師さん 2024/09/15(日) 16:45:43.18 ID:6k94uMEV0
ただ内部で思考連鎖させる分応答がかなり長くなったから、推論スピードアップさせるために大量のGPUが必要
686: 山師さん 2024/09/15(日) 16:46:30.73 ID:vtzVkjAT0
>>684
NVDA全力してる身としてはホクホクだよなこの話
NVDA全力してる身としてはホクホクだよなこの話
687: 山師さん 2024/09/15(日) 16:47:01.18 ID:9szPCk5n0
>>684
つ、つまりあの銘柄が勝ち確ってコト!?
つ、つまりあの銘柄が勝ち確ってコト!?
700: 山師さん 2024/09/15(日) 16:50:25.34 ID:6k94uMEV0
>>686
>>687
今後、たとえば人間が1か月くらいかけて考えるような長大な計画をAIに考えさせようと思ったら、とんでもない数の思考連鎖が必要になるかも
となると必要な計算リソースは増えていくばかり
711: 山師さん 2024/09/15(日) 16:53:59.76 ID:vtzVkjAT0
>>700
AIシステム開発でそれやろうとしてる人いるな
まあ計算資源の総量も増える
金は頑張って払える人が払ってくれ
AIシステム開発でそれやろうとしてる人いるな
まあ計算資源の総量も増える
金は頑張って払える人が払ってくれ
709: 山師さん 2024/09/15(日) 16:53:31.44 ID:fwqWyPG+H
さすが荒川民はAIに詳しいな
o1とGeminiの有料プランって現状どっちが優秀?得意不得意の分野とか明確にあるの?
o1とGeminiの有料プランって現状どっちが優秀?得意不得意の分野とか明確にあるの?
718: 山師さん 2024/09/15(日) 16:56:29.66 ID:6k94uMEV0
>>709
o1は今ある他のモデルとは一線を画してる
指示されたことに何が必要かタスク分解して思考したり間違ってないか検証する思考力がある
o1は今ある他のモデルとは一線を画してる
指示されたことに何が必要かタスク分解して思考したり間違ってないか検証する思考力がある
723: 山師さん 2024/09/15(日) 16:58:49.41 ID:vtzVkjAT0
>>709
Geminiはどうしようもないゴミ。おもちゃ程度のGmail連携はあるけど、おもちゃ
マルチモーダル(というか動画ファイル入力)以外に価値ないよ
あと、Google AI Studioで無料で無制限に使えるので有料プランはいらない
ChatGPTのo1はプレビューだから有料でも回数制限あるよ
あとそんな使ってないなら、ChatGPTもClaudeも無料でいいんじゃないか
726: 山師さん 2024/09/15(日) 17:04:29.87 ID:fwqWyPG+H
>>718,723
ありがとう
現状、業務上の資料作成くらいにしか活用してないけどもっと楽したい
o1課金して試してみるわ
ありがとう
現状、業務上の資料作成くらいにしか活用してないけどもっと楽したい
o1課金して試してみるわ
734: 山師さん 2024/09/15(日) 17:10:44.64 ID:vtzVkjAT0
>>726
o1、回数使い切ったら復活一週間後(だったかな)だから期待し過ぎないように。ほんとのプレビューだぞ
面倒なタスクに数時間付き合ってもらったら当分復活しませんと言われてしまった
まあ有料プランは月額料金なんだし、契約するならGPT4oでも何でもやらせてみるといい
722: 山師さん 2024/09/15(日) 16:58:27.13 ID:QClqZ0Ds0
ただ推論はGPUがいいかどうかはわからないのかな、ジムケラーとかはGPUが最適解とは言えないとよく言ってるし
724: 山師さん 2024/09/15(日) 17:01:52.84 ID:nDjBf1YO0
>>722
GPUが最良なんじゃなくて
GPUの中にある大容量高帯域メモリをくれってだけの話やからな
GroqのLPUで動作してるAPIなんかGPUと比べても早いから逆にNVDA危ないんちゃうのと思ってるけど
GPUが最良なんじゃなくて
GPUの中にある大容量高帯域メモリをくれってだけの話やからな
GroqのLPUで動作してるAPIなんかGPUと比べても早いから逆にNVDA危ないんちゃうのと思ってるけど
745: 山師さん 2024/09/15(日) 17:20:37.80 ID:vtzVkjAT0
>>722
Googleが作ってるTPUは良いらしい(学習も意外と良いらしい)
ただ、需要が途方もないので大丈夫だろう
GoogleやAmazonが自社設計した所で、結局TSMCに作ってもらうしかないんだし
Googleが作ってるTPUは良いらしい(学習も意外と良いらしい)
ただ、需要が途方もないので大丈夫だろう
GoogleやAmazonが自社設計した所で、結局TSMCに作ってもらうしかないんだし
750: 山師さん 2024/09/15(日) 17:24:34.85 ID:QClqZ0Ds0
>>745
そうか
ワイはAAPLがジムとなんかやるんじゃないかって期待してる
AAPLは結局googとは組めないしNVDAとも疎遠
ジムのほうはプロダクトはAAPLに向いてるしAAPLの枠のTSMCプロセスで量産できる
いいことしかない
そうか
ワイはAAPLがジムとなんかやるんじゃないかって期待してる
AAPLは結局googとは組めないしNVDAとも疎遠
ジムのほうはプロダクトはAAPLに向いてるしAAPLの枠のTSMCプロセスで量産できる
いいことしかない
766: 山師さん 2024/09/15(日) 17:29:12.83 ID:vtzVkjAT0
>>750
ジム・ケラー絡みはよう知らんけど、今形になっていないものが2年以内に普及する事はない
2年より先の事は分からんね
2年もあれば、エヌビディアのGPUも性能が伸びて省エネ化もするからね
ジム・ケラー絡みはよう知らんけど、今形になっていないものが2年以内に普及する事はない
2年より先の事は分からんね
2年もあれば、エヌビディアのGPUも性能が伸びて省エネ化もするからね
775: 山師さん 2024/09/15(日) 17:32:38.96 ID:QClqZ0Ds0
>>766
まあそうやね
AAPLはTPU欲しがってる感じはする
AAPLなら量でデファクト取れるプレイヤーだからCUDAのモートも破れるかもしれん
本来はgoogの仕事だったが本命が移った気がする
まあそうやね
AAPLはTPU欲しがってる感じはする
AAPLなら量でデファクト取れるプレイヤーだからCUDAのモートも破れるかもしれん
本来はgoogの仕事だったが本命が移った気がする
802: 山師さん 2024/09/15(日) 17:40:00.17 ID:vtzVkjAT0
>>775
GAFAMすべてが自社チップが出来次第切り替えたいみたいだけど
アマゾンも何年も前からAIチップ自社開発してるけどNVDAに遠く及ばないから、思ったより時間はかかるなあと
(AWSはアマゾンのチップを選ぶと性能低い代わりに安くなるみたい。ただ、その程度の扱いにしかできない)
GAFAMすべてが自社チップが出来次第切り替えたいみたいだけど
アマゾンも何年も前からAIチップ自社開発してるけどNVDAに遠く及ばないから、思ったより時間はかかるなあと
(AWSはアマゾンのチップを選ぶと性能低い代わりに安くなるみたい。ただ、その程度の扱いにしかできない)
812: 山師さん 2024/09/15(日) 17:43:49.84 ID:QClqZ0Ds0
>>802
いまこのへんの争いがやばい熱量で進んでそうだね
いまこのへんの争いがやばい熱量で進んでそうだね
引用元: https://egg.5ch.net/test/read.cgi/stock/1726358809/