Re: [新聞] Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高 @ Stock

熱度資訊

          
剛剛看FB,發現有個中國的作家對於Deepseek的作文水平感到驚訝,用了相同問題,以王家
衛的電影風格去撰寫標題為人生何處不相逢的散文,來分別問CHATGPT-O1跟Deepseek-R1
ChatGPT-O1:
https://i.imgur.com/T2jN9hZ.jpeg
Deepseek-R1: https://i.imgur.com/IitIbR0.jpeg
我是覺得Deepseek的回答好像有點純堆砌王家衛的電影名台詞的感覺,通篇王家衛感,但是 不知道在說甚麼 ChatGPT 在最後有點出散文標題,內容也比較有切合標題 這應該可以當作兩者的能力小比拼吧? -------- 補: 我也有用4O用相同問題問過,我覺得寫得比O1跟R1還好 https://i.imgur.com/7DN4Dz9.jpeg
這滿神奇的,O1應該是ChatGPT 最強的模型,但是寫散文我覺得沒有4O寫得好
1Fmamorui: ,R1高成本會嚇死人。 01/26 10:58
2Fmamorui: ,我用o1開頭也不會這樣 XD 01/26 18:53
3Fmamorui: 。 01/26 11:07
4Fmamorui: 。 01/26 18:20
5Ftradeent: http://i.imgur.com/c9C1WzU.jpg 01/26 11:50
6Fiaminnocent: https://i.imgur.com/7DN4Dz9.jpeg 01/26 11:59
7Fstrlen: https://tinyurl.com/3dfs2j8k 楊立昆都說話了 這就 01/26 11:24
8FDarkerDuck: 4o才是符合寫作直覺的產生方式 01/26 18:12
9Fiaminnocent: 4O有呈現回憶細節感,相比起O1來說我覺得較容易閱 01/26 14:50
10Fmamorui: ar的Postgres會支援 其他免費的就再說 01/26 11:31
11Ficexice: deepseek的回答真的好王家衛XD 01/26 11:17
12FTaiwanUp: DS的預訓練要用上微信用戶聊天訊息 可能會比較霸氣 01/26 11:26
13Fmamorui: eepSeek從pretrain就是土法煉鋼,那才叫真的沒花這 01/26 11:11
14Fmamorui: entry也長一樣 01/26 18:17
15Ftcypost: O1只是通順,沒有特色 01/26 14:15
16FTaiwanUp: O1比較像沒有人生經驗學生寫 可以再tune一段小故事 01/26 10:55
17FDarkerDuck: OpenAI又不是傻了,o1最強為什麼還要留個4o 01/26 18:13
18Fiaminnocent: pretrain資料集需要人工介入標記,這個東西貴鬆鬆 01/26 11:08
19Fmamorui: preview ? ) ˊ_>ˋ 01/26 18:11
20Ftcypost: R1少了很多邏輯上的連接詞,但是這對作家又不難 01/26 18:25
21FTaiwanUp: R1就每段都小故事 恐怕就是直接從劇本拼湊出來的 01/26 10:56
22Ftcypost: R1引導的是一些無法使用大膽文字的作家做出改變 01/26 18:27
23Fiaminnocent: tradent大,因為我是限定用O1跟R1這兩個來進行,如 01/26 11:56
24Fmamorui: v3為什麼strawberry的r幾個錯的跟其他模型一模一 01/26 11:16
25FTaiwanUp: V3的排名還是差4o(11月版)較遠 跟4o(五月版)較近 01/26 11:19
26Fiaminnocent: 一個被打不及格阿,因為根本文不對題 01/26 20:11
27Fy800122155: 不公平有啥意義? 01/26 11:16
28Fstrlen: 不愛?載回來用免錢 改免錢的 中國人要作功德當然好 01/26 10:56
29Fguanting886: 不會知道 但他會想辦法掰給你 01/26 23:06
30FTaiwanUp: 中低成本4o再開放一點權限給免費版就有了 01/26 11:20
31Fstrlen: 也不能拿你怎樣 這樣還不好? 01/26 11:28
32Fstrlen: 人家的 營利就算了 還反告別人 嘻嘻 01/26 11:27
33Fmamorui: 人砸大錢,DeepSeek應該pretrain的資料總該是全部 01/26 11:19
34Fguanting886: 他不是不差 他只能這樣 如果要給他一個程度的話 01/26 23:07
35Fguanting886: 他就像Yahoo知識+上的那些「專家」國小、國中生看 01/26 23:08
36Fiaminnocent: 以下是4O寫的,我反而覺得寫得比O1還好 01/26 11:59
37Fwoker: 但cp值可能不錯 01/26 11:17
38Fstrlen: 但deepseek算有良心了公開魔改方法 過去一堆垃圾 偷 01/26 11:27
39Fstrlen: 但deepseek重點在它開源 還公開論文 好耶 作功德 誰 01/26 10:55
40Fguanting886: 但GPT模型有個好處 就是你想問很冷門的東西他也能 01/26 23:09
41Fiaminnocent: 但因為我想說要比較兩個最強的,就以O1比R1,但是 01/26 12:00
42Fiaminnocent: 但是文章內容跟標題完全沒關系XDD 01/26 11:42
43FDarkerDuck: 你散文用o1寫反而讓CoT毀了原本流暢的寫作脈絡 01/26 18:12
44Fbreathair: 來搞了,算力的投資不會減少,不然等你 01/26 10:45
45Fiaminnocent: 個還是在O1之前我先用4O寫的 01/26 11:59
46Fmamorui: 做到上述兩項,那我就真的給這家鼓掌 01/26 11:16
47Fguanting886: 做減法 01/26 23:16
48Fmamorui: 做遊戲角色各種族差異,要想好先用誰再用誰,AI的 01/26 12:05
49Fiaminnocent: 其實樓上有點出問題,pretrain的預標數據集才是最 01/26 11:08
50Fguanting886: 到就很熱情的幫你Google出答案 只求最佳解答 而且 01/26 23:08
51Fy800122155: 加碼做到 R10、R100、R1000,到時DS花的500萬也是一 01/26 11:24
52FLiberl: 去那邊看就好了 01/26 11:54
53Fguanting886: 問題 01/26 23:03
54Fmamorui: 啟動r1,r1就突然知道了 01/26 12:01
55Fmamorui: 單。 01/26 11:24
56Fguanting886: 回你一二句 01/26 23:09
57Ftsubasawolfy: 因為o1就是邏輯能力 01/26 18:20
58Fmamorui: 因為公司可以決定支援的順序 01/26 11:32
59Fguanting886: 因為從底層他就不是那樣子運作的 再怎麼調整都只是 01/26 23:04
60Fy800122155: 在前人的成果? 現在DS發表用RL訓練不就只是換一種疊 01/26 11:16
61Fjatj: 好啦 1/20 1/20 阿就比較爛啊 阿就買不到算力啊 01/26 11:29
62FTaiwanUp: 如果不知道是台詞 R1有故事感但無邏輯 結尾有蛇年感 01/26 10:44
63Fguanting886: 學人講話 01/26 23:04
64Fmamorui: 學術界是齊心討論,可沒酸前人 01/26 11:27
65Fiaminnocent: 對作家最有用的不是R1吧,他就只是把王家衛的台詞 01/26 14:21
66Fguanting886: 就算他真的不知道也要湊答案掰給你看 01/26 23:08
67Fiaminnocent: 布O3-mini將免費了 01/26 10:41
68Fnewwu: 很明顯R1寫得最爛 01/26 15:46
69Fiaminnocent: 得到結論,王家衛的文字用理論是不行的XD要用感情 01/26 12:04
70Fsmallph01: 思考它的意涵意境 也讓我又一次驚訝Chatgpt 的能力 01/26 14:44
71Fmamorui: 思考跟記憶是仿人腦(非電腦),所以可以交錯問。 01/26 12:05
72Fstrlen: 成本怎麼樣無所謂啦 他都要作功德了 一塊成本都是賺 01/26 11:25
73Fiaminnocent: 我們使用AI的目的是要測他夠不夠聰明,能否被人類 01/26 20:10
74FDarkerDuck: 我自己再問那些篇直覺的問題也是只問4o 01/26 18:13
75Fiaminnocent: 我覺得寫散文反而4O好於O1 01/26 12:00
76Fmamorui: 我都直接拿strawberry看是不是資料同源 XDDD 01/26 11:28
77FLiberl: 或是Miula的臉書也有討論 01/26 11:54
78Fmamorui: 所以知道為什麼要開源碼 市占是真的很重要 01/26 11:32
79Fiaminnocent: 接受,這三篇拿去秘密給國文老師修改R1那篇一定第 01/26 20:11
80Fiaminnocent: 搬過來,作家這樣寫會被告抄襲吧 01/26 14:21
81Fariadne: 改回答這個違法不能問 這樣你覺得可以? 01/26 19:49
82Fmaxc55555: 散文本來就很吃共鳴XD 01/26 13:04
83Fmamorui: 料怎麼會錯 01/26 11:03
84Fguanting886: 明明就寫反了他還是一本正經的跟你胡說八道 01/26 23:06
85Fy800122155: 是如果別人能重現 DS R1,在算力巨大差異下可以直接 01/26 11:24
86Fiaminnocent: 最後那句「真好,人生何處不相逢」有震驚到我,這 01/26 11:59
87Fmamorui: 會看到跑一堆邏輯推理 01/26 18:14
88Fmamorui: 會錯的跟其他一模一樣, 如果pretrain全部自己的資 01/26 11:03
89Fmamorui: 有人要幫DeepSeek背書pretrain的資料準備嗎 01/26 11:20
90Fiaminnocent: 果用4O跟V3,也會有不一樣結果,這蠻特別的,我也 01/26 11:56
91Fy800122155: 樣丟到水裡 01/26 11:24
92Fmamorui: 樣是理所當然,而且預訓練是很純的資料(這家公司 01/26 11:16
93Fy800122155: 法? 自己要發布論文發布技術本來就是願意給別人用讓 01/26 11:16
94Fmamorui: 準備好資料是預訓練之常識) 01/26 11:16
95FSuperBig78: 滿低的@@ 01/26 13:46
96Fbreathair: 演算法追上,算力又落後了怎辦? 01/26 10:45
97Fguanting886: 為什麼 阿就這些東西都從擴散模型生出來的他怎麼會 01/26 23:16
98Fmamorui: 然正確率差一點,這成本就真的是今年最神的,很簡 01/26 11:24
99Fguanting886: 物件了 他還是硬要給我 01/26 23:15
100Fy800122155: 產業一起推進,在那邊吵什麼別人在哪個階段沒花到錢 01/26 11:16
101FDarkerDuck: 用o1還占我使用的額度 01/26 18:14
102Fguanting886: 發展 為什麼要用這個 包含裡面字為什麼擺下面他也 01/26 23:06
103Fiaminnocent: 確實,訓練成本這件事情蠻令人訝異的,OpenAi也宣 01/26 10:41
104FSuperBig78: 程度上的差異,但deep seek成本相對chatGPT系列真的 01/26 13:46
105Fstrlen: 站在前人肩膀上發展 但也開源沒有藏 所以很棒 稱讚 01/26 11:25
106Fstrlen: 老實講 你有GPU有伺服 抓r1下來自己調一調開API 它 01/26 11:28
107FDarkerDuck: 而且有些問題需要網路最新資料,也只能用4o網路搜尋 01/26 18:14
108Fmamorui: 自己收集的資料、沒有借助其他LLM產生好資料 =》 01/26 11:16
109Ftoulio81: 致的低成本,歐美無法學後者,而前者更是一條死路 01/26 11:54
110Fguanting886: 舉例來說:你去跟他詢問某一個字的甲骨文源頭 金文 01/26 23:06
111Fiaminnocent: 覺得4O寫的比O1好 01/26 11:56
112Fstrlen: 誰不曉得中國最厲害的就是魔改別人的東西? 01/26 11:26
113Fmamorui: 論上Search的資料跟GPT無關,他們可以輕鬆突破才對 01/26 18:20
114Fs860703: 講這麼多 美股續漲 01/26 11:49
115Fiaminnocent: 讀阿 01/26 14:50
116Fiaminnocent: 貴的,這些可能都是美國公司花大錢去做的 01/26 11:08
117Fmamorui: 都自己的、沒有用其他LLM生成的,有人要背書嗎? 01/26 11:19
118Fstrlen: 阿祖就是號召大家AI都來作功德 變成今天這樣很合理 01/26 11:26
119Fstlinman: 除還是能做減法。 但LLM就真的是在算計機率。 01/27 03:03
120Ftoulio81: 際上無法穩定達標的產品充數,要不就是政府補貼導 01/26 11:54
121Fmamorui: 雖然還沒有AGI。 現在看到LLM會出並存的系列,就當 01/26 12:05
122Fmamorui: 麼多成本。 01/26 11:11
123Fs213092921: http://i.imgur.com/NWWWmUD.jpg 01/26 11:04
124Fs213092921: https://reurl.cc/qn2dXy 01/26 13:48
125Fmamorui: API就可以串接了 繼續拿資料才是目的 01/26 11:29
126Fmamorui: DeepSeek卻無法整合V3跟Search,真的超奇怪的,理 01/26 18:20
127Ftradeent: DeepSeek寫得比較好 01/26 11:50
128Fmamorui: DeepSeek明顯被gpt資料模板牽著走,連search的那條 01/26 18:17
129Fchaohsiung: O1 4O 嚴謹程度設定應該不一樣 01/26 14:20
130Fmamorui: o1是推理型,以r1為例,我問r1不清楚的先問v3、再 01/26 12:01
131Fmamorui: pretrain的成本占總成本7-9成,R1是只管posttrain 01/26 10:58
132Fstrlen: r1實際用遠不如抬面上的啦 只有評測嚇人 無庸質疑 01/26 10:55
133Fmamorui: 不換個時間? https://imgur.com/9M2I5y1 01/26 18:55
134Ftoulio81: 中國公司很多的低成本都是假象,要不就是用品質實 01/26 11:54
135Fwoker: 中國出產品走向是中低成本市場。沒有一定要當頂尖 01/26 11:17
136Fntr203: 之前看過中國豆包跟gpt辯論,再來比一次阿 01/26 13:06
137Fguanting886: 以前用OpenAI去生圖 就叫他不要再給我裡面的某一個 01/26 23:15
138Ftcypost: 作家用R1改寫後會最有特色,其他沒有改寫空間 01/26 18:24
139Ftsubasawolfy: 你去看o1出來時跟4o的對比 會發現作文那邊沒增強 01/26 18:20
140Fguanting886: 你是永遠沒辦法看到GPT模型會有文筆或真的理解你的 01/26 23:03
141Fmrmowmow: 你用九把刀的品味去評鑑4o比較好的嗎? 01/26 14:34
142Fchaohsiung: 做功德的話 api的token應該要免費才是 01/26 14:18
143Fmamorui: 像r1就是一定要推理,關掉才能切到V3 01/26 12:06
144Fmamorui: 其實這題很怪,我自己測試r1也出現午夜三點十七分 01/26 18:53
145Futn875: 再次證明站在巨人肩膀是最划算策略 01/26 14:17
146Fbreathair: 只代表對於演算法大科技也要花大錢挖人 01/26 10:45
147FSuperBig78: 可以多生成幾篇試試嗎?感覺每次生成的結果應該會有 01/26 13:46
148Fmamorui: 如果是AGI,就不會有能力差異,表現如何是穩定的, 01/26 12:05
149Fpcjimmy: 寫文章的話,4O的能力好很多 01/26 13:09
150Fpoeoe: 很明顯DeepSeek寫的最有感 01/26 16:29
151Fy800122155: 從Transformer到GPT到ChatGPT等LLM,不都是一直堆疊 01/26 11:16
152Fmaxc55555: 怎麼辦,我只覺得是王家衛寫的好不好的差別,而且 01/26 13:04
153Fmamorui: 我們看的是總成本,只要找到證明背書pretrain,雖 01/26 11:24
154Fsmallph01: 我是比較喜歡01的版本 每一句都讓我想多停留幾秒去 01/26 14:44
155Fmamorui: 我沒有說不能吹能力,但成本就誇張了,我想看的是D 01/26 11:11
156Fmamorui: 我沒看那麼多文章,如果有人找到paper解釋DeepSeek 01/26 11:16
157Fy800122155: 所以是DS的工程師還是老闆自己出來"嘲笑"嗎? 現實就 01/26 11:24
158FDarkerDuck: 數學、程式、科學那種需要推理的才會用到o1 01/26 18:11
159Fmamorui: 是啊 我對於佛心沒意見 XD 01/26 11:26
160Fdragonjj: 有03了喔 01/26 19:28
161Fariadne: 有人問Deepseek大躍進 給出答案後過兩秒撤回答案 01/26 19:49
162Fmamorui: 樓上那些詩句看起來沒有走推理系,有的話問題下方 01/26 18:14
163Fmamorui: 沒有按Deep think其實是走V3, 按了才是R1(或者R1- 01/26 18:11
164Fmamorui: 沒說他們沒花錢,重點前人pretrain花多少,嘲笑前 01/26 11:19
165Fmamorui: 然後是DeepSeek-V3宣稱557萬,但strawberry幾個r也 01/26 11:03
166FEnzofulgura: 看完覺得Deepseek比較懂得王家衛XD 01/26 11:39
167Fwangm4a1: 站在巨人肩膀上 科技正常現象 01/26 11:33
168Fmamorui: 簡單說,成本漂亮那就不要有那麼多別的模型的影子 01/26 11:07
169FLiberl: 股癌的台股美股電報群已經有很多大神分析過了 01/26 11:53
170Fstlinman: 認真說一下繪圖AI是發散->收斂,負向提示詞或二次抹 01/27 03:02
171Ftradeent: 請問樓上怎麼加電報群 01/26 11:55
172Ftcypost: 這邊對作家最有用的是R1,對學生有用的是4O 01/26 14:14
173FPoloHuang: 這邊高手好多 01/26 13:39
174Fs213092921: 重點是Deepseek背後的成本只有ChatGPT的20分之1 01/26 10:34
175Fmamorui: 開源的原因很好懂 我之前整合資料庫 免費的最popul 01/26 11:31
...