小さいモデルでも推論能力さえあれば反復させれば十分な出力があって知識なんて外部から取ればええってパラダイムシフトが起きたから
openaiやanthropicが持ってた巨大LLMのアドバンテージは無くなった感じやな
166: 山師さん (ワッチョイ 895b-VQSO [220.104.151.210]) 2020/07/04(土) 13:31:55.95 ID:4fHErlmO0 全世界投資とQQQでいいんじゃないの? 頭使うの苦手だし 223: 山師さん (オッペケ Srf9-JMfq [126.204.170.132]) 2020/07/04(土) 14:50:14.36 ID:6nOe […]
1: 山師さん 2025/05/18(日) 17:16:08.58 ID:MycKhFTe0● BE:659060378-BRZ(11000) 「この世は宇宙人が作った仮想ゲーム。 証明した瞬間にシャットダウン」 学者も賛同 シミュレーション仮説の最先端 我々が この世界がシミュレーションだと いうことに気づいてしまった時、 何か問題が生じるだろうか? ハーバード大学の 天文学者エイブラハム・ロー […]
52: 山師さん 2022/06/14(火) 18:19:47.42 ID:9bmAp7rD0 LNGタンカーのチャーター率が 最高値を更新しました。 53: 山師さん 2022/06/14(火) 18:22:00.48 ID:3mi06kw7F >>52 船のオーナーが儲かるってこと?日本郵船とか? 55: 山師さん 2022/06/14(火) 18:31:11.07 ID:9bmA […]
72: 山師さん 2022/07/07(木) 04:00:43.65 ID:u/PHmFUbr テスラを信用取引で買ってみた 85: 山師さん 2022/07/07(木) 04:06:39.11 ID:u/PHmFUbr あの、信用で買ったばっかりなんですけどマイ転しました 88: 山師さん 2022/07/07(木) 04:07:37.65 ID:KNxYMWt/0 >>85 海鮮す […]
o1ってそういうことなの?
そうやで
推論を繰り返す事に計算資源を使う事で性能が上がる証明になった
知識はRAGなり外部から取れば良くなって
こうなると大きいモデルの方が推論繰り返すリソース大きくなって不利になる
そうは言っても一定量は必要そう言語(日本語とか)カバーも必要だし
あとマルチモーダル想定するとか、いろんな要素があるしな
現在の一般的な家庭用PCで動く8Bモデルでも既に十分な言語能力と推論能力はあるからな
anthropicが運用してるような3兆パラメータのクソデカLLMは絶対いらなくなるわ
そもそも運用するのに数兆円規模の計算資源と維持費かかるからか
最終的にはバランスの問題になるのか
まあ、今は十分だと思っても、もっと良いものが出たら物足りなくなるのはITだと毎度の話
どうせGPU性能も上がる、世の中に存在するGPUの総量も増える
資金がショートしない限り、足かせつける必要がない
将来的には計算資源の性能も飛躍的に上がって大きなモデルもスマホのメモリで動く事になるやろうけどな
今後数年は小さいモデルを基準にして専門知識詰め込んだモデルをマージしたりRAGで知識量を解決するモデルが主流になると思うで
超大規模モデルも、効率化するモデルもどっちも出てくるだろう
今の不足分を補うにはRAGはいいよね。ただRAGの知識も全部飲み込んだモデルが出てくることは期待してる
エッジじゃ動かなくてもデータセンターで動いてくれればいいんだし
いちおう画像生成とかの精度には必要かも
>>658
>知識は外部から
これが本当に活きるならGoogleと一体化してるGeminiがぶっちぎりなんよ
あと一応GPT-4oも外部URLアクセスができるから簡易的ながら出来る
外部URLアクセスできないClaudeは残念
LLMの知能爆発は結局スケーリング則の先に起こるんじゃないかな
>>679
効率化というか企業顧客へのカスタマイズとサポートだけで稼ぐ感じだな
日本のSIはコストをかけるつもりもないしリスクを取る気もないんだよ
全てが人月商売で回ってる
惰性の延長でしかもの見れないやつがほとんどだからなあ
まあ、無駄な仕事を省くだけでも十分価値あると思うけど
せやね、Transformerモデルは計算資源つぎ込めばつぎ込むほどスケーリング則に忠実に知能が伸びてるからAGI到達までは時間の問題
NVDA全力してる身としてはホクホクだよなこの話
つ、つまりあの銘柄が勝ち確ってコト!?
>>686
>>687
今後、たとえば人間が1か月くらいかけて考えるような長大な計画をAIに考えさせようと思ったら、とんでもない数の思考連鎖が必要になるかも
となると必要な計算リソースは増えていくばかり
AIシステム開発でそれやろうとしてる人いるな
まあ計算資源の総量も増える
金は頑張って払える人が払ってくれ
o1とGeminiの有料プランって現状どっちが優秀?得意不得意の分野とか明確にあるの?
o1は今ある他のモデルとは一線を画してる
指示されたことに何が必要かタスク分解して思考したり間違ってないか検証する思考力がある
>>709
Geminiはどうしようもないゴミ。おもちゃ程度のGmail連携はあるけど、おもちゃ
マルチモーダル(というか動画ファイル入力)以外に価値ないよ
あと、Google AI Studioで無料で無制限に使えるので有料プランはいらない
ChatGPTのo1はプレビューだから有料でも回数制限あるよ
あとそんな使ってないなら、ChatGPTもClaudeも無料でいいんじゃないか
ありがとう
現状、業務上の資料作成くらいにしか活用してないけどもっと楽したい
o1課金して試してみるわ
>>726
o1、回数使い切ったら復活一週間後(だったかな)だから期待し過ぎないように。ほんとのプレビューだぞ
面倒なタスクに数時間付き合ってもらったら当分復活しませんと言われてしまった
まあ有料プランは月額料金なんだし、契約するならGPT4oでも何でもやらせてみるといい
GPUが最良なんじゃなくて
GPUの中にある大容量高帯域メモリをくれってだけの話やからな
GroqのLPUで動作してるAPIなんかGPUと比べても早いから逆にNVDA危ないんちゃうのと思ってるけど
Googleが作ってるTPUは良いらしい(学習も意外と良いらしい)
ただ、需要が途方もないので大丈夫だろう
GoogleやAmazonが自社設計した所で、結局TSMCに作ってもらうしかないんだし
そうか
ワイはAAPLがジムとなんかやるんじゃないかって期待してる
AAPLは結局googとは組めないしNVDAとも疎遠
ジムのほうはプロダクトはAAPLに向いてるしAAPLの枠のTSMCプロセスで量産できる
いいことしかない
ジム・ケラー絡みはよう知らんけど、今形になっていないものが2年以内に普及する事はない
2年より先の事は分からんね
2年もあれば、エヌビディアのGPUも性能が伸びて省エネ化もするからね
まあそうやね
AAPLはTPU欲しがってる感じはする
AAPLなら量でデファクト取れるプレイヤーだからCUDAのモートも破れるかもしれん
本来はgoogの仕事だったが本命が移った気がする
GAFAMすべてが自社チップが出来次第切り替えたいみたいだけど
アマゾンも何年も前からAIチップ自社開発してるけどNVDAに遠く及ばないから、思ったより時間はかかるなあと
(AWSはアマゾンのチップを選ぶと性能低い代わりに安くなるみたい。ただ、その程度の扱いにしかできない)
いまこのへんの争いがやばい熱量で進んでそうだね
引用元: https://egg.5ch.net/test/read.cgi/stock/1726358809/