小さいモデルでも推論能力さえあれば反復させれば十分な出力があって知識なんて外部から取ればええってパラダイムシフトが起きたから
openaiやanthropicが持ってた巨大LLMのアドバンテージは無くなった感じやな
860: 山師さん 2022/01/15(土) 22:45:10.19 ID:t+Lqi3E20 トンガの影響出るのってオーストラリアとかニュージーランド?あそこが出荷量トップクラスの物って何があるの? 870: 山師さん 2022/01/15(土) 22:46:26.36 ID:NdwyHT7dM >>860 オーストラリアは小麦 878: 山師さん 2022/01/15(土) 22 […]
450: 山師さん 2021/12/24(金) 13:30:08.46 ID:50IVUAQGd そろそろこのスレの2021年の流行語を決めてください 462: 山師さん 2021/12/24(金) 13:36:23.89 ID:OHI3QEY6M >>450 CWEB 511: 山師さん 2021/12/24(金) 13:56:45.35 ID:haspShVe0 >>4 […]
832: 山師さん 2022/01/28(金) 03:43:02.82 ID:pkmzgkPT0 Teslaなんでこんなに下げてんの? 845: 山師さん 2022/01/28(金) 03:45:00.15 ID:HdPdk3Byd >>832 超絶神決算を期待してガチホしていたイナゴが普通の好決算だったのを見て心折られて損切りしてるんじゃね 867: 山師さん 2022/01/28( […]
188: 山師さん 2022/07/10(日) 15:19:00.14 ID:ekN9bWu7d 底じゃないとしてもここから半値とかはもう考えなくて良さそうじゃね?SOXLとかは7ドルくらいまでいく可能性あるとは思うけどsp500がここから半値で1900とかはなさそう。行っても3000、EPS低下次第で2900くらいかなぁと 194: 山師さん 2022/07/10(日) 15:24:22.78 […]
o1ってそういうことなの?
そうやで
推論を繰り返す事に計算資源を使う事で性能が上がる証明になった
知識はRAGなり外部から取れば良くなって
こうなると大きいモデルの方が推論繰り返すリソース大きくなって不利になる
そうは言っても一定量は必要そう言語(日本語とか)カバーも必要だし
あとマルチモーダル想定するとか、いろんな要素があるしな
現在の一般的な家庭用PCで動く8Bモデルでも既に十分な言語能力と推論能力はあるからな
anthropicが運用してるような3兆パラメータのクソデカLLMは絶対いらなくなるわ
そもそも運用するのに数兆円規模の計算資源と維持費かかるからか
最終的にはバランスの問題になるのか
まあ、今は十分だと思っても、もっと良いものが出たら物足りなくなるのはITだと毎度の話
どうせGPU性能も上がる、世の中に存在するGPUの総量も増える
資金がショートしない限り、足かせつける必要がない
将来的には計算資源の性能も飛躍的に上がって大きなモデルもスマホのメモリで動く事になるやろうけどな
今後数年は小さいモデルを基準にして専門知識詰め込んだモデルをマージしたりRAGで知識量を解決するモデルが主流になると思うで
超大規模モデルも、効率化するモデルもどっちも出てくるだろう
今の不足分を補うにはRAGはいいよね。ただRAGの知識も全部飲み込んだモデルが出てくることは期待してる
エッジじゃ動かなくてもデータセンターで動いてくれればいいんだし
いちおう画像生成とかの精度には必要かも
>>658
>知識は外部から
これが本当に活きるならGoogleと一体化してるGeminiがぶっちぎりなんよ
あと一応GPT-4oも外部URLアクセスができるから簡易的ながら出来る
外部URLアクセスできないClaudeは残念
LLMの知能爆発は結局スケーリング則の先に起こるんじゃないかな
>>679
効率化というか企業顧客へのカスタマイズとサポートだけで稼ぐ感じだな
日本のSIはコストをかけるつもりもないしリスクを取る気もないんだよ
全てが人月商売で回ってる
惰性の延長でしかもの見れないやつがほとんどだからなあ
まあ、無駄な仕事を省くだけでも十分価値あると思うけど
せやね、Transformerモデルは計算資源つぎ込めばつぎ込むほどスケーリング則に忠実に知能が伸びてるからAGI到達までは時間の問題
NVDA全力してる身としてはホクホクだよなこの話
つ、つまりあの銘柄が勝ち確ってコト!?
>>686
>>687
今後、たとえば人間が1か月くらいかけて考えるような長大な計画をAIに考えさせようと思ったら、とんでもない数の思考連鎖が必要になるかも
となると必要な計算リソースは増えていくばかり
AIシステム開発でそれやろうとしてる人いるな
まあ計算資源の総量も増える
金は頑張って払える人が払ってくれ
o1とGeminiの有料プランって現状どっちが優秀?得意不得意の分野とか明確にあるの?
o1は今ある他のモデルとは一線を画してる
指示されたことに何が必要かタスク分解して思考したり間違ってないか検証する思考力がある
>>709
Geminiはどうしようもないゴミ。おもちゃ程度のGmail連携はあるけど、おもちゃ
マルチモーダル(というか動画ファイル入力)以外に価値ないよ
あと、Google AI Studioで無料で無制限に使えるので有料プランはいらない
ChatGPTのo1はプレビューだから有料でも回数制限あるよ
あとそんな使ってないなら、ChatGPTもClaudeも無料でいいんじゃないか
ありがとう
現状、業務上の資料作成くらいにしか活用してないけどもっと楽したい
o1課金して試してみるわ
>>726
o1、回数使い切ったら復活一週間後(だったかな)だから期待し過ぎないように。ほんとのプレビューだぞ
面倒なタスクに数時間付き合ってもらったら当分復活しませんと言われてしまった
まあ有料プランは月額料金なんだし、契約するならGPT4oでも何でもやらせてみるといい
GPUが最良なんじゃなくて
GPUの中にある大容量高帯域メモリをくれってだけの話やからな
GroqのLPUで動作してるAPIなんかGPUと比べても早いから逆にNVDA危ないんちゃうのと思ってるけど
Googleが作ってるTPUは良いらしい(学習も意外と良いらしい)
ただ、需要が途方もないので大丈夫だろう
GoogleやAmazonが自社設計した所で、結局TSMCに作ってもらうしかないんだし
そうか
ワイはAAPLがジムとなんかやるんじゃないかって期待してる
AAPLは結局googとは組めないしNVDAとも疎遠
ジムのほうはプロダクトはAAPLに向いてるしAAPLの枠のTSMCプロセスで量産できる
いいことしかない
ジム・ケラー絡みはよう知らんけど、今形になっていないものが2年以内に普及する事はない
2年より先の事は分からんね
2年もあれば、エヌビディアのGPUも性能が伸びて省エネ化もするからね
まあそうやね
AAPLはTPU欲しがってる感じはする
AAPLなら量でデファクト取れるプレイヤーだからCUDAのモートも破れるかもしれん
本来はgoogの仕事だったが本命が移った気がする
GAFAMすべてが自社チップが出来次第切り替えたいみたいだけど
アマゾンも何年も前からAIチップ自社開発してるけどNVDAに遠く及ばないから、思ったより時間はかかるなあと
(AWSはアマゾンのチップを選ぶと性能低い代わりに安くなるみたい。ただ、その程度の扱いにしかできない)
いまこのへんの争いがやばい熱量で進んでそうだね
引用元: https://egg.5ch.net/test/read.cgi/stock/1726358809/
