Re: [新聞] 市值蒸發19.7兆!輝達聲明:DeepSeek未 @ Stock

熱度資訊

          
※ 引述《huabandd (我是阿肥巴你頭)》之銘言:
: 沒什麼好恐慌的
: 中國算法優秀,還是需要有硬體來使用
: 除非可以做到不需要專用晶片依然能有成效
: 到時候再來跑也來得及
: 該恐慌的是那些投入大量資源搞AI軟體的公司
: 不過話說回來,禁令似乎也沒什麼意義了
: 反正中國有的是辦法搞到這些晶片


需要算力沒錯
只是根本不需要這麼多
原本預估要10000台才能學完
但我發現只需要將資料先預處理
挑出重點再去學習
發現只需要500台就能學完了

所以結論就是我的確需要更快的GPU跟內存容量
但我不需要買那麼多了




        
1FRaiGend0519: *Cisco 01/28 21:34
2Fbitcch: *GPU 01/28 20:32
3Fstrlen: *誰 01/28 21:01
4Fheinzblack: 10000人的工作500人就能做完?太棒了 01/28 21:23
5Fsdbb: 14400 bps可能還太快? 01/28 20:16
6Fsdbb: 2000年的網路,能想像視訊通話、Netflix嗎? 01/28 21:05
7Fstrlen: 2000年納指四年漲五倍 現在兩年連一倍也沒有...... 01/28 21:22
8FIBIZA: 2000年那之後的兩三年的泡沫 不是因為網路沒用 01/28 21:04
9FIBIZA: 2000年那時候是真的很多技術都還沒有 01/28 21:07
10Fwalelile: 4o latency 0.6秒,這也是成本差距吧 01/28 21:47
11FIBIZA: 4歲小孩多看一點書會聰明一點 但總是有上限 01/28 21:18
12Fstrlen: 95太抬舉它們了 現在連60分及格都沒有 實用性的話 01/28 21:35
13FIBIZA: AI產生的認知 01/28 20:39
14FIBIZA: AI蠢不蠢 目前都已經開始有應用了 01/28 20:58
15FIBIZA: AlphaGo是用大量人類棋手的棋譜訓練的 01/28 20:43
16FIBIZA: AlphaGo是自己跟自己練習出來的 所以會走出人類覺得 01/28 20:44
17Fbnn: Cisco在網路泡沫爆掉的時候也沒比軟體股慘 01/28 21:30
18FIBIZA: DeepSeek並不是靠什麼統合文章節省算力 不要胡說 01/28 20:35
19FIBIZA: DeepSeek就是不人為介入啊 01/28 20:47
20FIBIZA: DeepSeek是大量減少需要的時間 01/28 21:12
21FIBIZA: DeepSeek是把四個步驟的監督微調拿掉 不人為介入 01/28 20:42
22FIBIZA: DeepSeek是用了有別於OpenAI開創出來的訓練方式 01/28 20:36
23FIBIZA: DeepSeek的訓練方式也是一樣 電腦自己跟自己練習 01/28 20:45
24FIBIZA: DS並沒有帶來質的提升 01/28 20:59
25Fz23061542: DS就小模型== 到時你要接起來還是要大量算力 01/28 20:54
26FMosskappa: EO 01/28 21:06
27Fstrlen: GPT3就是個概念 新奇 但垃圾 GPT4改進一點 但沒用 01/28 21:35
28Fborriss: GPT3都幾年了 這幾天去踹去吹的 也有說就GPT3.5 01/28 21:54
29Fstrlen: GPT4之前胡說八道問題太嚴重 現在越來越少 01/28 21:36
30Fandysun221: gpu 01/28 23:37
31Fs0920151048: llm 01/28 23:16
32FIBIZA: LLM也不一定是通往AGI的正確道路 01/28 21:01
33FIBIZA: LLM基本上都照做 01/28 20:41
34FIBIZA: l的 01/28 20:55
35Fbnn: NV先腰斬一次回80吧 01/28 21:37
36Fstrlen: o1我看連麥當勞點餐都沒辦法 蠢得要命 還早得很 01/28 21:02
37FIBIZA: OpenAI的訓練分成四個階段 01/28 20:38
38FIBIZA: QE是在AI爆發前 AI爆發之後一質都是QT 01/28 21:25
39FIBIZA: RBOT也是還沒產品 但從低點噴四倍多 01/28 21:21
40FIBIZA: 一堆東西沒學(X) 現在的LLM模型能力就這樣(O) 01/28 21:17
41Fstrlen: 一直到了o1現在 才非常勉強可以用在特定工作上 01/28 21:36
42FIBIZA: 不人為介入告訴電腦對錯 01/28 20:45
43FIBIZA: 不合理的棋 01/28 20:44
44FIBIZA: 不是 當時就真的沒甚麼應用 01/28 21:05
45FIBIZA: 不是580萬 是557.6萬 01/28 20:51
46FChungLi5566: 不是喔 資料量只會一直變大 01/28 23:24
47Fstrlen: 不是需求飽和 是你的產品根本沒達到需求 01/28 21:04
48FIBIZA: 不然固網其實很早就100M了啊 01/28 21:10
49Fbreathair: 不然就是像DS當機 01/28 20:26
50Fjaricho: 不用推什麼2nm 也許14nm就夠了 01/28 20:14
51Fstrlen: 不能 因為AI就是蠢 不好用 便宜也沒用 01/28 20:58
52FIBIZA: 並不是算力丟下去 LLM就會飛天遁地 01/28 21:17
53FIBIZA: 中國那邊翻譯做頓悟時刻 01/28 20:47
54FIBIZA: 串流 01/28 21:08
55Fsupereva: 也不是科技業都這樣 像手機車子就沒啥新把戲 ai 01/28 20:50
56Fstrlen: 也夠用了 根本一毛錢都不用花 超輕度用戶 01/28 20:54
57FIBIZA: 也許有一天會發現走錯了 目前佈的都是錯的 01/28 21:01
58FIBIZA: 也許根本不是LLM 01/28 21:13
59FIBIZA: 事實上大部分的算力並不是用來開發AI模型 01/28 20:54
60FIBIZA: 事情 會不會工人過剩 01/28 21:16
61Fbasslife: 人去嘗試然後公布 讓子彈飛 01/28 20:51
62FNovaShin: 人家小米家庭已經飽和了,apple生態圈就那點東西 01/28 20:11
63Fsupereva: 今天你要拼命想才有一個很雞肋的新點子 那ai才是 01/28 20:52
64Fbnn: 他就是沒法提供研究所智力 但可能可以做到便宜事了 01/28 21:14
65FIBIZA: 他的棋路就是會照人類棋手的思路 01/28 20:44
66FSuGK: 以了 01/28 20:42
67FIBIZA: 以前勞動力供不應求 但現在一個工人可以做10倍的 01/28 21:16
68Fheinzblack: 以後給他們20倍的工作量! 01/28 21:23
69Fstrlen: 企業要的是能滿足需求 再來談價錢 現在連需求都沒有 01/28 20:58
70FIBIZA: 但並沒有優化 01/28 21:12
71FIBIZA: 但平台的資本支出是650億 01/28 20:55
72Fbnn: 但很明顯現在的頻寬也可以暴力支撐老技術(ry 01/28 21:08
73Fbnn: 但感覺需要的不是HBM 而是CPO到硬碟怎麼辦(ry 01/28 21:19
74FIBIZA: 但結果是AlphaGO棋力更強 01/28 20:44
75FIBIZA: 位階差那麼多哪能這樣算 01/28 21:22
76Fstrlen: 位階跟這又沒關係 2000年可是沒有QE耶 01/28 21:23
77Fsupereva: 你以為的學完的ai是什麼樣子? 01/28 20:36
78Fxluds24805: 你大學學完,腦袋就能丟掉了嗎 01/28 21:38
79FIBIZA: 你手機頻寬可能100M吧 01/28 21:08
80FIBIZA: 你灌幾倍的算力下去 也不會有甚麼進步 01/28 21:13
81Floveadu: 你用微積分難道是100計算機算出來的?什麼叫算法跟 01/28 20:17
82FIBIZA: 你能接受下載一部片再看嗎 01/28 21:08
83Fiphone9C: 你要先有別人幫你整理才能分類 01/28 21:04
84FFFFAAA: 來源變成節省算力的主因。 01/28 20:33
85Fhuabandd: 像人腦受智力上限限制 01/28 21:11
86FIBIZA: 像各種機器人公司 從低點算漲三四倍不算多 01/28 21:20
87Fsupereva: 像汽車 或是手機這樣 01/28 20:42
88Fpeter0625: 價 就是依據市場需要那麼多GPU去估的 現在看起來 01/28 20:33
89Fvicklin: 先定義"學完" 01/28 20:10
90Floveadu: 全新算法 01/28 20:16
91Floveadu: 公司還是需要臭皮匠阿,廢話,但不需要這麼多了 01/28 20:39
92FIBIZA: 其他家很快就會跟上 01/28 20:31
93FIBIZA: 其實不見得有甚麼進程 01/28 21:11
94FIBIZA: 其實很多喔 01/28 21:22
95Fyiersan: 出AGI 那才是真的了不起 01/28 20:40
96Floveadu: 別人是空間到空間,你還在光速要多久 01/28 20:18
97Fstrlen: 力來研發 可以越快訓練出可以解決國中數學的AI 01/28 20:55
98FIBIZA: 原本預計每年投入多少資本支出 商業應用還是供不應 01/28 20:57
99Fstrlen: 去年聖誕節時期釋出o3 工程師就再興奮要AI自己產程 01/28 20:48
100Fbnn: 又或者你其他問題上誰知道花多少算力時間才aha 01/28 20:48
101Fqaz630210: 只好開源讓大家抄來證明實力 01/28 20:40
102Fsupereva: 只是比誰做得更好 01/28 20:49
103Fsupereva: 可是起步中的起步 01/28 20:51
104Fsdbb: 台肯,大家應該用14400 bps modem上網就好 01/28 20:16
105FIBIZA: 告訴AI怎樣才是對的 而是用強化學習讓AI自己跟自己 01/28 20:42
106FIBIZA: 哪 但 真正的問題應該是 這幾年的需求是不是飽和了 01/28 21:03
107Fstrlen: 哪一間空殼沒產品的股票噴飛天? 01/28 21:20
108Fbnn: 問題其實就是那個aha moment是不是人動了手腳 01/28 20:47
109Fstrlen: 問題就現在AI太蠢了 超廢 連點餐都處理不了 01/28 21:03
110Fbnn: 嗯 那時候網路一部分是不夠快沒法讓影音起來 01/28 21:06
111Fyiersan: 國也會想辦法走私 01/28 20:43
112Fdostey: 垃圾中國deepseek是面板套用人家gtp當輸出 01/28 22:20
113Fbnn: 基建的基礎就是鏟子賣出去了就回收了 01/28 21:31
114Fstrlen: 大多數算力就是拿來推論的 但推論便宜了就有更多算 01/28 20:55
115Fbnn: 大概比喻就是你雇用一百個小學畢業工人跟雇用一千個 01/28 21:14
116Fbnn: 大部分其實不是訓練 是應用端場景一直加進來改 01/28 20:58
117Fai2311: 太多東西 材料 蛋白 病毒 基本上算不完 01/28 21:03
118Fstrlen: 如果好用 AI商用早就普及了 現在各行各業才在用.... 01/28 21:01
119Fvisadanny: 委屈 01/28 20:41
120FRaiGend0519: 子才賣得動 01/28 21:27
121FJOHN117: 學完XDD 01/28 21:33
122Fsheep2009: 學完不用? 01/28 21:03
123Fwaterjade: 學完怎麼定義? AI這麼快就到盡頭了嗎? 01/28 20:21
124Ffywei: 實在可悲 不為難空空的思想了 01/28 21:25
125FChungLi5566: 就像以前以為電腦進步會越來越小台省電 01/28 23:25
126Fpeter0625: 就是可以不需要那麼多 除非有什麼其他依據跌不會停 01/28 20:34
127Fstrlen: 就連麥當勞當年套個AI點餐機就被罵爆 01/28 21:02
128Fq2825842: 巨頭之前給出的天文數字其實也是主觀判斷 01/28 20:34
129Fporu: 巨頭囤貨就是在壟斷資源及價高後進者門檻.結果 01/28 21:03
130Fsupereva: 幫我煮菜洗衣服都還沒看到耶 01/28 20:35
131Floveadu: 幾百個臭皮匠敵不過一個諸葛亮,差別就在於腦袋( 01/28 20:38
132FNovaShin: 弄一個好棒棒的結果沒人要買 01/28 20:12
133Fstrlen: 式自己改進 他這樣講是已經在做了 奧特曼聽到嚇尿 01/28 20:49
134FIBIZA: 強化學習就是讓AI模型自己跟自己練習 01/28 20:41
135Fbnn: 影音的應用是不知道嗎 不是 是用起來卡死不好應用 01/28 21:06
136Fccc52168: 往前推進 01/28 20:51
137Fbrella: 很壯喔 01/28 20:27
138Fmadeinheaven: 後面你還是要買推理晶片 01/28 20:20
139FIBIZA: 從ChatGPT引發AI爆炸成長到現在 都是高利率+Qt 01/28 21:26
140FIBIZA: 念AGI要幹嘛 01/28 20:30
141Fstrlen: 怎摸把作法不小心公開 母湯喔 又要被學走了 XD 01/28 20:49
142FIBIZA: 應該是差不多唸完了 01/28 21:19
143FLouisWOLF: 成本計算的真實性是個謎,但投資肯定是先閃為妙 01/28 21:18
144Fsupereva: 成熟了 像什麼小米汽車可以跳過坑洞那種 01/28 20:52
145Floveadu: 成自己學習 01/28 20:44
146Ftakase: 我想到個老笑話: PC只需要640kb的記憶體 01/28 21:05
147FIBIZA: 我打開我的AI&Robot自選組合 01/28 21:24
148Fstrlen: 我測太多東西了 真的不行 差得遠了 o1都不太滿意了 01/28 20:53
149FIBIZA: 我看大概有一半是沒產品 或是產品幾乎沒營收的 01/28 21:24
150Fsupereva: 我能不能用ai描述一個世界 就用vision pro讓我在 01/28 20:36
151Fstrlen: 我記得23年底財報前也是狂殺20% 網路泡沫論也是滿天 01/28 21:28
152Fstrlen: 我記得幾個月前 也一堆人擔心 AI胡說八道問題沒法解 01/28 21:36
153Fzxm00038: 我認為,我以為,我…,好了啦 01/28 20:46
154Fstrlen: 我講白一點 覺得r1夠用的人 其實只要用臉書的拉馬 01/28 20:54
155FTSMCfabXX: 所以我說那個應用呢 (O) 01/28 21:03
156Fbnn: 所以說只有加速 LLM是不是朝向AGI也還不知道啊 01/28 21:13
157Fsupereva: 才會嫌多吧 01/28 20:41
158FIBIZA: 打錯 但結果是AlphaZero棋力更強 01/28 20:44
159Fspa41260: 打骨折都沒人要 01/28 20:26
160Fyiersan: 把結果給7巨白嫖 簡直佛 01/28 20:36
161Fjohnney: 拿DS預處理資料然後餵給其他AI練功 選我正解! 01/28 20:15
162Fdostey: 拿人家的結果當成自己的輸出 真他媽白標 01/28 22:20
163Floveadu: 推理晶片對的,所以我買世芯沒有買NV 01/28 20:21
164Fstrlen: 提升要看程度 先讓國中數學解得出來再談 01/28 20:54
165FIBIZA: 昨天就說過 以Meta來講 訓練的成本不過30億 01/28 20:55
166FIBIZA: 是 現在的問題就是 市場有沒有需要這麼多勞動力 01/28 21:16
167Fs0920151048: 是下降? 01/28 23:16
168FIBIZA: 是模型建立之後 把模型佈在平台上 提供商業應用cal 01/28 20:55
169FIBIZA: 是網路沒用嗎? 不是 是應用沒開發出來 01/28 21:04
170FBlueBird5566: 智慧這種東西怎麼可能有學完的一天 01/28 22:51
171Fstrlen: 有 但根本沒辦法普及 因為太蠢了 01/28 20:59
172Ftonyparker18: 有一天喊對AI泡沫 01/28 21:28
173Fsupereva: 有這deepseek我覺得還會加速哩 01/28 20:46
174Fliangnet: 有那幾家客戶才會買 01/28 20:41
175FFFFAAA: 果,另一個前100篇文章分析統合,如果前5篇文章就是 01/28 20:33
176FIBIZA: 核心 01/28 20:56
177FIBIZA: 機制獎勵他 01/28 20:40
178Fvisadanny: 步 問題是ai剛起步欸 01/28 20:37
179FIBIZA: 求 01/28 20:54
180FIBIZA: 求 但現在效率變好 會不會幾年內算力過剩? 01/28 20:58
181Fspa41260: 求算力,尤其是現在買進最新的硬體,不到兩年可能 01/28 20:26
182Fsupereva: 沒完成 01/28 20:45
183FIBIZA: 沒有點對點的話 其實影音應用 到現在還是起不來 01/28 21:07
184Fzerro7: 沒看到阿斯拉或賈維斯出來前一律當作沒念完(O) 01/28 21:20
185FNovaShin: 深度跟廣度 自己選一個 不要跟applevision一樣 01/28 20:12
186Fstrlen: 滿足 爛 01/28 20:58
187Fslothman: 為需求是有終點的喔 01/28 21:02
188Fpatrol: 然就是當機還裝成被駭客攻擊 01/28 20:12
189Fbnn: 然後他aha出來的搞不好很突破人類下限 就(ry 01/28 20:49
190Fbnn: 然後他就aha出水溝蓋可以跑(ry 01/28 20:51
191Fcablate: 然後大家都從500台開始,一路捲到1萬台,你覺得誰 01/28 22:16
192Fstrlen: 然後股市裡一堆中小AI群魔亂舞 01/28 21:18
193FBlueBird5566: 然有學完的一天 但事實上OPEN AI還有一堆缺陷 01/28 22:51
194Fq2825842: 爭對手好幾代 01/28 20:43
195FIBIZA: 獎勵建模 就是 建立一個獎勵模型 當AI做出正確推理 01/28 20:40
196FPureAnSimple: 獻曝耶 01/28 21:20
197FIBIZA: 現在AI的需求沒看到終點 事實上連終點都還不知道在 01/28 21:03
198FIBIZA: 現在LLM的方向是不是對的都不知道 就在講AGI 01/28 21:06
199FIBIZA: 現在LLM的智力就是4歲 你強迫他念研究所的書也沒用 01/28 21:18
200Fwxyz7819: 現在又不是終點 如果有新的應用出來 更多人用 還是 01/28 20:11
201FSuGK: 現在就看小資族AI夠不夠用 但沒人知道什麼叫夠用 01/28 20:43
202Fstrlen: 現在就連o1的質也遠遠不及商務需求 01/28 21:00
203FIBIZA: 現在是要達到70B 也就是有意義的訓練量要很久 01/28 21:11
204FSamurai: 現在的AI你覺得已經是終點了??? 01/28 20:43
205FIBIZA: 用2美元一小時算 就是580萬美元 01/28 20:48
206Fahlolha: 用不到那麼多算力 總不可能要一般人都去吃頂尖等級 01/28 21:11
207FIBIZA: 畢竟現在AI能做的有限 01/28 21:03
208Fbnn: 當年下載色圖或mp3等多久都有人應用(X 01/28 21:09
209FIBIZA: 當然 也是有人願意等 但等的人就少 01/28 21:10
210FIBIZA: 當然 我是期待他產品真的有用 可以噴100倍啦 01/28 21:22
211FIBIZA: 發展很慢 結果有一天就開竅了 論文稱為aha moment 01/28 20:46
212Fahlolha: 的成本 智慧型手機也是靠中低階大量普及 01/28 21:11
213FSAMMY728: 的方式。 01/28 21:12
214Fcablate: 的比較強? 01/28 22:16
215Fsupereva: 的駕駛很多極端狀況的數據根本不夠 01/28 20:50
216FIBIZA: 監督微調 就是用人工貼標籤的方式 去糾正預先訓練中 01/28 20:39
217Fstrlen: 直到那時 就真的完了 哈哈哈 01/28 21:29
218FIBIZA: 看你學完怎麼定義 如果以4歲智商能念的書 01/28 21:19
219Fstrlen: 看到板上 哪次老黃大跌不是半信半疑 這樣哪來樂觀 01/28 21:25
220Fliangnet: 硬體需求變低,相對就能讓原本負擔不起的公司變成 01/28 20:41
221Fs0920151048: 確定?更多中小企業可以玩自己的i’ll了 算力需求 01/28 23:16
222FNovaShin: 確實 現在就反應 寫寫文章 到底要什麼算力 01/28 20:11
223Fab4daa: 穩 01/28 20:13
224Ftonyparker18: 空 01/28 21:30
225Fhbkhhhdx2006: 等到應用出來才去搞算力就不知道落後多少了 01/28 21:05
226Floveadu: 算力 01/28 20:17
227FIBIZA: 算力效率變好 那應用需求能不能跟上? 01/28 20:57
228Fai2311: 算力永遠不夠 01/28 21:03
229Floveadu: 算法) 01/28 20:38
230FIBIZA: 結果照論文裡頭描述的 一開始DeepSeek的推理能力 01/28 20:46
231FG8AJ: 結論:all in tsmc 01/28 21:20
232FIBIZA: 絕大部分的資本支出 其實是提供商業應用 而不是訓練 01/28 20:56
233Fstrlen: 絕對有泡沫爆掉的一天 但到時板上絕不會有任何看空 01/28 21:29
234Fstrlen: 網路泡沫要到一堆空殼公司連產品都沒有就拿到資金 01/28 21:18
235FIBIZA: 練習 自己找出怎樣是對的 01/28 20:43
236Fbnn: 總之力大磚飛不見得不行 但DS幫他加速了進程 01/28 21:10
237Fbnn: 總之看記憶能力還能怎麼發展 01/28 21:18
238Fpippen2002: 總市值75.53兆 隨便就跌去1/4 台股!?神!! 01/28 21:29
239FIBIZA: 美國算法不會落後 這種東西就是一家找出方法 01/28 20:31
240Floveadu: 老闆如果可以只請一個馬斯克,會請100個留美的嗎? 01/28 20:38
241Fstrlen: 老黃躺在這半年了 樂觀在哪?質疑聲從沒少過 01/28 21:24
242Fwaterjade: 而且廣範圍運用的話也要很多伺服器或工作站啊 01/28 20:21
243FIBIZA: 而是如果各家開始學習DeepSeek的方法 各家AI的效率 01/28 20:53
244FIBIZA: 而是當時的應用不夠 所以當時的網路需求上不來 01/28 21:05
245Fstrlen: 股市在高位沒錯 但泡沫 還早 那時可是一片樂觀 01/28 21:24
246Fbnn: 能力成長有限 但並聯其實能增加覆蓋問題範疇就夠了 01/28 21:13
247Fsupereva: 自動駕駛也需要ai自己生成場景去訓練 不然靠人類 01/28 20:50
248FIBIZA: 花了多少算力時間V3是有公布的 01/28 20:48
249FIBIZA: 蠻多AI公司飛天的啊 01/28 21:19
250Fsupereva: 裡面探索呢 現在還差得遠吧 01/28 20:36
251FIBIZA: 要介入就是OpenAI的訓練了 01/28 20:48
252Fstrlen: 要是有用 夠用 麥當勞早就去談了 店員全裁光 01/28 21:03
253Fwxyz7819: 要有算力 01/28 20:11
254FIBIZA: 要看你定義的飛天是怎樣算 01/28 21:21
255FIBIZA: 要真的有進步 可能還要找到其他方法 01/28 21:13
256Fq2825842: 要能估算個大概,至少要等商業模式和應用層的探索 01/28 20:35
257FIBIZA: 要花很多GPU時間 01/28 21:12
258Fstrlen: 要說DS對整體降本增效有功絕對同意 但極限 遠遠不及 01/28 20:52
259Floveadu: 計算機也無用 01/28 20:30
260Fstrlen: 話說八月那次也是拿泡沫出來講 結果勒 01/28 21:26
261Fvdrenike: 誰agi先出來就能吃下市場 01/28 21:04
262FIBIZA: 講AGI都講太遠 01/28 21:06
263Fjympin: 講的好像ds已經是最終答案了 01/28 22:52
264FGivemeApen: 貝吧 01/28 21:34
265Fliangnet: 負擔的起,簡單的說,就是更好銷售硬體了,不再只 01/28 20:41
266FIBIZA: 這個基本上就是AlphaGo跟AlphaZero的差別 01/28 20:43
267FIBIZA: 這個就像2000年的時候 01/28 21:04
268FIBIZA: 這個是OpenAI建立的訓練方法 OpenAI出台之後 各家 01/28 20:41
269Fvisadanny: 這個結論是ai已經是成熟的產品 已經沒辦法有太大進 01/28 20:37
270Fstrlen: 這兩年股票根本只漲七巨頭 中小死在地上 01/28 21:18
271FIBIZA: 這才是問題 不是甚麼10000片能學完 現在只要200片 01/28 20:58
272Fq2825842: 這次藉口特別多,還有外行的在吹開源代表它領先競 01/28 20:43
273Fstrlen: 這種公司數量遠遠不及2000年..... 01/28 21:22
274FIBIZA: 這篇其實講錯 不是甚麼學完 01/28 20:53
275FIBIZA: 達到一定的訓練量 能力成長就有限 01/28 21:12
276Fstrlen: 那一定會泡沫勒 現在呢........ 01/28 21:36
277Fstrlen: 那些爛AI拿來商用 難怪沒人要用 01/28 20:56
278FIBIZA: 那時候你能用網路做的事情不多 01/28 21:04
279FIBIZA: 那時候就是e-mail 簡單的靜態web 01/28 21:06
280FIBIZA: 都提升 那目前佈的算力是不是已經超過短期的商業需 01/28 20:54
281Fq2825842: 都進行得差不多 01/28 20:35
282FFFFAAA: 重點,那後者分析確實浪費資源與時間,資料庫與資訊 01/28 20:33
283Fstrlen: 重點還很剛好 每次都在財報前 還真的沒一次miss 01/28 21:27
284Fq2825842: 開源又不只它一家,meta也推出過開源模型,怎麼就 01/28 20:43
285Fvisadanny: 開源只是他也有用別人開源的東西……少講得好像很 01/28 20:41
286Fstrlen: 除七巨頭哪家AI公司股價飛天的?還不就那些有業績的 01/28 21:19
287Fccc52168: 除非DS的成果是大家認為的AI極限,不然還是要靠算力 01/28 20:51
288Fholien: 除非你覺得現在的AI已經完美不需再進化了,否則硬 01/28 23:52
289FIBIZA: 雖然不會太久 可能10幾分鐘 01/28 21:09
290FMosskappa: 頂尖 01/28 21:25
291FIBIZA: 預先訓練 監督微調 獎勵建模 強化學習 01/28 20:38
292FIBIZA: 預先訓練就是給AI大量文本 讓他學習語言跟知識 01/28 20:39
293Floveadu: 馬斯克有說AI已經學完人類的資料,現在都是自己生 01/28 20:44
294Fholien: 體需求永遠無法滿足人類的慾望 01/28 23:52
295FMosskappa: 高不合理 01/28 21:21
296Fxluds24805: AI 又不是已經走到極限了,哪來學完 01/28 21:37
297Fakimu: 一個80分 一個60分 誰會願意花時間在60分那邊 01/28 21:28
298FPureAnSimple: 什麼算力不用那麼多 ?你知道自己在說殺小嗎?拼命 01/28 21:20
299Fc8111136: 你不要買啊,你就看別人賺爛就是這樣而已 01/28 21:58
300Fyangte: 你是不是沒搞懂AI 01/28 20:22
301Ffedona: 你知道agi需要的算力嗎 01/28 21:06
302Fben1013: 你覺得現的功能可以嗎? 01/28 21:46
303Fmadeinheaven: 你說的是訓練 還有推理晶片這東西好嗎 = = 01/28 20:20
304Fa22530722: 學完什麼?你的大一微積分嗎??????????????????????? 01/28 20:28
305FGHowPan: 學完是什? 01/28 21:06
306Fq2825842: 現在根本沒法預估5-10年後ai需要多大的硬體規模。 01/28 20:34
307Ffedona: 用常識屁股想也知道 agi 需要的算力 01/28 21:07
308FBlueBird5566: 看到學完就覺得好好笑 拿OPEN AI來當目標的話 那當 01/28 22:51
309FMoonCode: 看衰的人 那你們要買什麼 還是要做空呢? 01/28 21:22
310Fbitcch: 老黃每年都在提升硬體性能大家GPT有越買越少嗎 01/28 20:31
311FGivemeApen: 覺得考95夠了就等著被靠120幹死 不懂救繼續當快樂寶 01/28 21:34
312Fhaopig: 講得很好,以後不要再講了 01/28 21:06
313FMosskappa: https://i.imgur.com/2CwbrC2.jpeg perplexity C 01/28 21:06
314Fsdbb: 2000年網路應用沒開發出來,部分原因是不夠快 01/28 21:05
315Ftonyparker18: 4月盤中跌一千點喊一次 8月台指期跌停再喊一次 總 01/28 21:28
316Ftonyparker18: 8月那次喊台積電300-500的人呢 01/28 21:27
317FYandereLove: AI不只LLM,可以拿去算其他項目 01/28 20:11
318Fpt993526: AI軍備競賽開打 算力這種硬實力越高越好吧 01/28 20:13
319Floveadu: AI這種東西快一步只會快更多,美國算法落後,再多 01/28 20:30
320Fwalelile: DS節省的訓練的算力,沒有提到推論節省多少算力吧? 01/28 21:21
321Fyiersan: DS離AGI還扯不上邊 除非小女孩能低成本用演算法搞 01/28 20:40
322Fjaricho: iPhone停在16就夠用了 s25當最後一代差不多了 製程 01/28 20:14
323Fyiersan: NV的digits迷你超級電腦會大賣吧 三千美元而已 中 01/28 20:43
324Fherrowui: 一堆東西沒學,當然砍半訓練 01/28 21:16
325FMosskappa: 下一步是AI AGENT 01/28 21:11
326Fyiersan: 中國放開源 注定無法賺錢 中國繼續捲死自己 01/28 20:35
327Fsupereva: 什麼叫「學完」 我期待的完全自動駕駛和ai機器人 01/28 20:35
328FRaiGend0519: 但是Cosco 2000年用一年時間從80元崩到20元左右 01/28 21:34
329Fklwei: 你以為會跟你聊天就學完了嗎? 01/28 20:46
330FDellSale999: 你可以說人不懂AI 但你也不懂老闆要的AI 01/28 21:02
331Fhuabandd: 你看小了,演算法是可以進步的,才開始而已,並不 01/28 21:11
332FPoloHuang: 使用的人越多越需要買 01/28 22:20
333FRaiGend0519: 再來就散戶公司進場,紅海化的速度越快需求越高鏟 01/28 21:27
334Fredbeanbread: 再多的小公司都買不到原本七巨頭要買的 01/28 20:16
335FSuGK: 原本以為要大撒幣才能玩AI 現在發現好像小資族也可 01/28 20:42
336FpoisonB: 原本是3巨頭*1000台 現在是人人有功練100家*50台 01/28 20:10
337FRaiGend0519: 合理的推論 01/28 21:25
338Fpeter0625: 同意 市場為什麼會恐慌 不就是這個原因原先輝逹估價 01/28 20:33
339Fidletime: 好還要更好 對那些想走前面的公司,還是會想買 01/28 20:09
340Fsupereva: 如果你覺得ai現在已經很成熟沒什麼新把戲 那算力 01/28 20:41
341Fnewstyle: 如果沒有給AI道德觀,繼續發展下去蠻可怕的 01/28 20:47
342Flusifa2007: 學完?AI的極限已經到了哦?短短兩年 01/28 20:43
343Fpatrol: 學完了歸學完了,要面對數億人還是需要大量鏟子,不 01/28 20:12
344Fsupereva: 學完人類的資料只是記住而已 那他自動駕駛怎麼還 01/28 20:45
345FFFFAAA: 實際兩者使用就知道差別,一個像似前5篇文章統合結 01/28 20:33
346Fbasslife: 很多問題 包含那個aha 反正他號稱是開源 自然會有 01/28 20:51
347Fwalelile: 從openrouter這個網站來看,DS v3 latency 6秒 01/28 21:46
348Fahlolha: 成本降才能普及 頂尖的繼續去追求超高算力 一般人 01/28 21:11
349Fslothman: 我開100匹馬力的車也可以為啥需要200匹馬力的 你以 01/28 21:02
350FTSMCfabXX: 所以我說那個醬汁呢 (X) 01/28 21:03
351Ftomaschang: 所以會有更多公司加入AI行列 01/28 20:09
352Fwind93: 搞不好是特定題目算的很厲害而已 01/28 20:13
353Fqaz630210: 昨天看到一種說法說開源也是無奈之舉,不開源沒人信 01/28 20:39
354FSRNOB: 會嗎? 01/28 20:10
355FSAMMY728: 有了技術,成本又能普及,資本市場自然會找到使用他 01/28 21:12
356Floveadu: 根本不需要每個人都有100台,怎麼還停留在硬體,ai 01/28 20:16
357FMosskappa: 機器人也要考慮中國的競爭呀,他們的機器狼是世界 01/28 21:25
358Fagpc: 沒有最好,只有更好;科技產業就是如此。 01/28 20:50
359FMosskappa: 特斯拉跌到200那時候更慘,一堆人說賣車的估值這麼 01/28 21:21
360Fskery3188: 猜AI練題完存答案 不用再run一遍 01/28 23:01
361FpoisonB: 用99乘法表能解的題目跟實際運算還是有差別 01/28 20:20
362FpoisonB: 用什麼iPhone 照某些人的說法 用小米就好了 01/28 20:16
363Fdongdong0405: 看了傑文斯悖論後…大膽抄底 01/28 20:16
364Fandysun221: 看起來就是輝達晶片要賣爛了......人人有you 01/28 23:37
365Fspa41260: 算力還是需要,只是大家會思考有沒有必要溢價去追 01/28 20:26
366Ftonyparker18: 絕對是當大家瘋狂買進的時候才會泡沫 現在是一片看 01/28 21:30
367Fqwert123456: 誰知道後續AI會用多少?大家也只是囤貨而已 01/28 20:20
368Fstrlen: 讓AI自己訓練自己 我自己猜 OpenAI早就已經在做了 01/28 20:47
369Fabiggun: 距離AI無所不在 還有很長的距離 01/28 20:41
370Fqxpbyd: 跟我念三次 AGI AGI AGI 01/28 20:28
371Fsupereva: 這個概念特斯拉幾年前的ai day也有講過 01/28 20:48
372Fhbkhhhdx2006: 這邏輯就好像說任何晶片根本沒必要繼續研發 01/28 20:16
373Ftonyparker18: 連2000年網路泡沫化都出來了 也太離譜 01/28 21:24
374Fgray2000: 那原本的1萬台不就可以算更多東西? 01/28 21:37
375Fzerro7: 重點是"學完了"嗎 01/28 21:19
376Fbreathair: 除了學,你還要有提供服務的算力支援 01/28 20:26
377Fhbkhhhdx2006: 需求飽和還是要繼續研發啊 01/28 21:04
...