Re: [新聞] Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高 @ Stock
熱度資訊
剛剛看FB,發現有個中國的作家對於Deepseek的作文水平感到驚訝,用了相同問題,以王家 衛的電影風格去撰寫標題為人生何處不相逢的散文,來分別問CHATGPT-O1跟Deepseek-R1 ChatGPT-O1: https://i.imgur.com/T2jN9hZ.jpeg Deepseek-R1: https://i.imgur.com/IitIbR0.jpeg 我是覺得Deepseek的回答好像有點純堆砌王家衛的電影名台詞的感覺,通篇王家衛感,但是 不知道在說甚麼 ChatGPT 在最後有點出散文標題,內容也比較有切合標題 這應該可以當作兩者的能力小比拼吧? -------- 補: 我也有用4O用相同問題問過,我覺得寫得比O1跟R1還好 https://i.imgur.com/7DN4Dz9.jpeg 這滿神奇的,O1應該是ChatGPT 最強的模型,但是寫散文我覺得沒有4O寫得好
1F推mamorui: ,R1高成本會嚇死人。
01/26 10:58
2F推mamorui: ,我用o1開頭也不會這樣 XD
01/26 18:53
3F推mamorui: 。
01/26 11:07
4F推mamorui: 。
01/26 18:20
8F推DarkerDuck: 4o才是符合寫作直覺的產生方式
01/26 18:12
9F推iaminnocent: 4O有呈現回憶細節感,相比起O1來說我覺得較容易閱
01/26 14:50
10F推mamorui: ar的Postgres會支援 其他免費的就再說
01/26 11:31
11F推icexice: deepseek的回答真的好王家衛XD
01/26 11:17
12F推TaiwanUp: DS的預訓練要用上微信用戶聊天訊息 可能會比較霸氣
01/26 11:26
13F推mamorui: eepSeek從pretrain就是土法煉鋼,那才叫真的沒花這
01/26 11:11
14F推mamorui: entry也長一樣
01/26 18:17
15F推tcypost: O1只是通順,沒有特色
01/26 14:15
16F推TaiwanUp: O1比較像沒有人生經驗學生寫 可以再tune一段小故事
01/26 10:55
17F推DarkerDuck: OpenAI又不是傻了,o1最強為什麼還要留個4o
01/26 18:13
18F推iaminnocent: pretrain資料集需要人工介入標記,這個東西貴鬆鬆
01/26 11:08
19F推mamorui: preview ? ) ˊ_>ˋ
01/26 18:11
20F推tcypost: R1少了很多邏輯上的連接詞,但是這對作家又不難
01/26 18:25
21F推TaiwanUp: R1就每段都小故事 恐怕就是直接從劇本拼湊出來的
01/26 10:56
22F推tcypost: R1引導的是一些無法使用大膽文字的作家做出改變
01/26 18:27
23F推iaminnocent: tradent大,因為我是限定用O1跟R1這兩個來進行,如
01/26 11:56
24F推mamorui: v3為什麼strawberry的r幾個錯的跟其他模型一模一
01/26 11:16
25F推TaiwanUp: V3的排名還是差4o(11月版)較遠 跟4o(五月版)較近
01/26 11:19
26F推iaminnocent: 一個被打不及格阿,因為根本文不對題
01/26 20:11
27F推y800122155: 不公平有啥意義?
01/26 11:16
28F推strlen: 不愛?載回來用免錢 改免錢的 中國人要作功德當然好
01/26 10:56
29F推guanting886: 不會知道 但他會想辦法掰給你
01/26 23:06
30F推TaiwanUp: 中低成本4o再開放一點權限給免費版就有了
01/26 11:20
31F推strlen: 也不能拿你怎樣 這樣還不好?
01/26 11:28
32F推strlen: 人家的 營利就算了 還反告別人 嘻嘻
01/26 11:27
33F推mamorui: 人砸大錢,DeepSeek應該pretrain的資料總該是全部
01/26 11:19
34F推guanting886: 他不是不差 他只能這樣 如果要給他一個程度的話
01/26 23:07
35F推guanting886: 他就像Yahoo知識+上的那些「專家」國小、國中生看
01/26 23:08
36F推iaminnocent: 以下是4O寫的,我反而覺得寫得比O1還好
01/26 11:59
37F推woker: 但cp值可能不錯
01/26 11:17
38F推strlen: 但deepseek算有良心了公開魔改方法 過去一堆垃圾 偷
01/26 11:27
39F推strlen: 但deepseek重點在它開源 還公開論文 好耶 作功德 誰
01/26 10:55
40F推guanting886: 但GPT模型有個好處 就是你想問很冷門的東西他也能
01/26 23:09
41F推iaminnocent: 但因為我想說要比較兩個最強的,就以O1比R1,但是
01/26 12:00
42F推iaminnocent: 但是文章內容跟標題完全沒關系XDD
01/26 11:42
43F推DarkerDuck: 你散文用o1寫反而讓CoT毀了原本流暢的寫作脈絡
01/26 18:12
44F推breathair: 來搞了,算力的投資不會減少,不然等你
01/26 10:45
45F推iaminnocent: 個還是在O1之前我先用4O寫的
01/26 11:59
46F推mamorui: 做到上述兩項,那我就真的給這家鼓掌
01/26 11:16
47F推guanting886: 做減法
01/26 23:16
48F推mamorui: 做遊戲角色各種族差異,要想好先用誰再用誰,AI的
01/26 12:05
49F推iaminnocent: 其實樓上有點出問題,pretrain的預標數據集才是最
01/26 11:08
50F推guanting886: 到就很熱情的幫你Google出答案 只求最佳解答 而且
01/26 23:08
51F推y800122155: 加碼做到 R10、R100、R1000,到時DS花的500萬也是一
01/26 11:24
52F推Liberl: 去那邊看就好了
01/26 11:54
53F推guanting886: 問題
01/26 23:03
54F推mamorui: 啟動r1,r1就突然知道了
01/26 12:01
55F推mamorui: 單。
01/26 11:24
56F推guanting886: 回你一二句
01/26 23:09
57F推tsubasawolfy: 因為o1就是邏輯能力
01/26 18:20
58F推mamorui: 因為公司可以決定支援的順序
01/26 11:32
59F推guanting886: 因為從底層他就不是那樣子運作的 再怎麼調整都只是
01/26 23:04
60F推y800122155: 在前人的成果? 現在DS發表用RL訓練不就只是換一種疊
01/26 11:16
61F推jatj: 好啦 1/20 1/20 阿就比較爛啊 阿就買不到算力啊
01/26 11:29
62F推TaiwanUp: 如果不知道是台詞 R1有故事感但無邏輯 結尾有蛇年感
01/26 10:44
63F推guanting886: 學人講話
01/26 23:04
64F推mamorui: 學術界是齊心討論,可沒酸前人
01/26 11:27
65F推iaminnocent: 對作家最有用的不是R1吧,他就只是把王家衛的台詞
01/26 14:21
66F推guanting886: 就算他真的不知道也要湊答案掰給你看
01/26 23:08
67F推iaminnocent: 布O3-mini將免費了
01/26 10:41
68F推newwu: 很明顯R1寫得最爛
01/26 15:46
69F推iaminnocent: 得到結論,王家衛的文字用理論是不行的XD要用感情
01/26 12:04
70F推smallph01: 思考它的意涵意境 也讓我又一次驚訝Chatgpt 的能力
01/26 14:44
71F推mamorui: 思考跟記憶是仿人腦(非電腦),所以可以交錯問。
01/26 12:05
72F推strlen: 成本怎麼樣無所謂啦 他都要作功德了 一塊成本都是賺
01/26 11:25
73F推iaminnocent: 我們使用AI的目的是要測他夠不夠聰明,能否被人類
01/26 20:10
74F推DarkerDuck: 我自己再問那些篇直覺的問題也是只問4o
01/26 18:13
75F推iaminnocent: 我覺得寫散文反而4O好於O1
01/26 12:00
76F推mamorui: 我都直接拿strawberry看是不是資料同源 XDDD
01/26 11:28
77F推Liberl: 或是Miula的臉書也有討論
01/26 11:54
78F推mamorui: 所以知道為什麼要開源碼 市占是真的很重要
01/26 11:32
79F推iaminnocent: 接受,這三篇拿去秘密給國文老師修改R1那篇一定第
01/26 20:11
80F推iaminnocent: 搬過來,作家這樣寫會被告抄襲吧
01/26 14:21
81F推ariadne: 改回答這個違法不能問 這樣你覺得可以?
01/26 19:49
82F推maxc55555: 散文本來就很吃共鳴XD
01/26 13:04
83F推mamorui: 料怎麼會錯
01/26 11:03
84F推guanting886: 明明就寫反了他還是一本正經的跟你胡說八道
01/26 23:06
85F推y800122155: 是如果別人能重現 DS R1,在算力巨大差異下可以直接
01/26 11:24
86F推iaminnocent: 最後那句「真好,人生何處不相逢」有震驚到我,這
01/26 11:59
87F推mamorui: 會看到跑一堆邏輯推理
01/26 18:14
88F推mamorui: 會錯的跟其他一模一樣, 如果pretrain全部自己的資
01/26 11:03
89F推mamorui: 有人要幫DeepSeek背書pretrain的資料準備嗎
01/26 11:20
90F推iaminnocent: 果用4O跟V3,也會有不一樣結果,這蠻特別的,我也
01/26 11:56
91F推y800122155: 樣丟到水裡
01/26 11:24
92F推mamorui: 樣是理所當然,而且預訓練是很純的資料(這家公司
01/26 11:16
93F推y800122155: 法? 自己要發布論文發布技術本來就是願意給別人用讓
01/26 11:16
94F推mamorui: 準備好資料是預訓練之常識)
01/26 11:16
95F推SuperBig78: 滿低的@@
01/26 13:46
96F推breathair: 演算法追上,算力又落後了怎辦?
01/26 10:45
97F推guanting886: 為什麼 阿就這些東西都從擴散模型生出來的他怎麼會
01/26 23:16
98F推mamorui: 然正確率差一點,這成本就真的是今年最神的,很簡
01/26 11:24
99F推guanting886: 物件了 他還是硬要給我
01/26 23:15
100F推y800122155: 產業一起推進,在那邊吵什麼別人在哪個階段沒花到錢
01/26 11:16
101F推DarkerDuck: 用o1還占我使用的額度
01/26 18:14
102F推guanting886: 發展 為什麼要用這個 包含裡面字為什麼擺下面他也
01/26 23:06
103F推iaminnocent: 確實,訓練成本這件事情蠻令人訝異的,OpenAi也宣
01/26 10:41
104F推SuperBig78: 程度上的差異,但deep seek成本相對chatGPT系列真的
01/26 13:46
105F推strlen: 站在前人肩膀上發展 但也開源沒有藏 所以很棒 稱讚
01/26 11:25
106F推strlen: 老實講 你有GPU有伺服 抓r1下來自己調一調開API 它
01/26 11:28
107F推DarkerDuck: 而且有些問題需要網路最新資料,也只能用4o網路搜尋
01/26 18:14
108F推mamorui: 自己收集的資料、沒有借助其他LLM產生好資料 =》
01/26 11:16
109F推toulio81: 致的低成本,歐美無法學後者,而前者更是一條死路
01/26 11:54
110F推guanting886: 舉例來說:你去跟他詢問某一個字的甲骨文源頭 金文
01/26 23:06
111F推iaminnocent: 覺得4O寫的比O1好
01/26 11:56
112F推strlen: 誰不曉得中國最厲害的就是魔改別人的東西?
01/26 11:26
113F推mamorui: 論上Search的資料跟GPT無關,他們可以輕鬆突破才對
01/26 18:20
114F推s860703: 講這麼多 美股續漲
01/26 11:49
115F推iaminnocent: 讀阿
01/26 14:50
116F推iaminnocent: 貴的,這些可能都是美國公司花大錢去做的
01/26 11:08
117F推mamorui: 都自己的、沒有用其他LLM生成的,有人要背書嗎?
01/26 11:19
118F推strlen: 阿祖就是號召大家AI都來作功德 變成今天這樣很合理
01/26 11:26
119F推stlinman: 除還是能做減法。 但LLM就真的是在算計機率。
01/27 03:03
120F推toulio81: 際上無法穩定達標的產品充數,要不就是政府補貼導
01/26 11:54
121F推mamorui: 雖然還沒有AGI。 現在看到LLM會出並存的系列,就當
01/26 12:05
122F推mamorui: 麼多成本。
01/26 11:11
125F推mamorui: API就可以串接了 繼續拿資料才是目的
01/26 11:29
126F推mamorui: DeepSeek卻無法整合V3跟Search,真的超奇怪的,理
01/26 18:20
127F推tradeent: DeepSeek寫得比較好
01/26 11:50
128F推mamorui: DeepSeek明顯被gpt資料模板牽著走,連search的那條
01/26 18:17
129F推chaohsiung: O1 4O 嚴謹程度設定應該不一樣
01/26 14:20
130F推mamorui: o1是推理型,以r1為例,我問r1不清楚的先問v3、再
01/26 12:01
131F推mamorui: pretrain的成本占總成本7-9成,R1是只管posttrain
01/26 10:58
132F推strlen: r1實際用遠不如抬面上的啦 只有評測嚇人 無庸質疑
01/26 10:55
134F推toulio81: 中國公司很多的低成本都是假象,要不就是用品質實
01/26 11:54
135F推woker: 中國出產品走向是中低成本市場。沒有一定要當頂尖
01/26 11:17
136F推ntr203: 之前看過中國豆包跟gpt辯論,再來比一次阿
01/26 13:06
137F推guanting886: 以前用OpenAI去生圖 就叫他不要再給我裡面的某一個
01/26 23:15
138F推tcypost: 作家用R1改寫後會最有特色,其他沒有改寫空間
01/26 18:24
139F推tsubasawolfy: 你去看o1出來時跟4o的對比 會發現作文那邊沒增強
01/26 18:20
140F推guanting886: 你是永遠沒辦法看到GPT模型會有文筆或真的理解你的
01/26 23:03
141F推mrmowmow: 你用九把刀的品味去評鑑4o比較好的嗎?
01/26 14:34
142F推chaohsiung: 做功德的話 api的token應該要免費才是
01/26 14:18
143F推mamorui: 像r1就是一定要推理,關掉才能切到V3
01/26 12:06
144F推mamorui: 其實這題很怪,我自己測試r1也出現午夜三點十七分
01/26 18:53
145F推utn875: 再次證明站在巨人肩膀是最划算策略
01/26 14:17
146F推breathair: 只代表對於演算法大科技也要花大錢挖人
01/26 10:45
147F推SuperBig78: 可以多生成幾篇試試嗎?感覺每次生成的結果應該會有
01/26 13:46
148F推mamorui: 如果是AGI,就不會有能力差異,表現如何是穩定的,
01/26 12:05
149F推pcjimmy: 寫文章的話,4O的能力好很多
01/26 13:09
150F推poeoe: 很明顯DeepSeek寫的最有感
01/26 16:29
151F推y800122155: 從Transformer到GPT到ChatGPT等LLM,不都是一直堆疊
01/26 11:16
152F推maxc55555: 怎麼辦,我只覺得是王家衛寫的好不好的差別,而且
01/26 13:04
153F推mamorui: 我們看的是總成本,只要找到證明背書pretrain,雖
01/26 11:24
154F推smallph01: 我是比較喜歡01的版本 每一句都讓我想多停留幾秒去
01/26 14:44
155F推mamorui: 我沒有說不能吹能力,但成本就誇張了,我想看的是D
01/26 11:11
156F推mamorui: 我沒看那麼多文章,如果有人找到paper解釋DeepSeek
01/26 11:16
157F推y800122155: 所以是DS的工程師還是老闆自己出來"嘲笑"嗎? 現實就
01/26 11:24
158F推DarkerDuck: 數學、程式、科學那種需要推理的才會用到o1
01/26 18:11
159F推mamorui: 是啊 我對於佛心沒意見 XD
01/26 11:26
160F推dragonjj: 有03了喔
01/26 19:28
161F推ariadne: 有人問Deepseek大躍進 給出答案後過兩秒撤回答案
01/26 19:49
162F推mamorui: 樓上那些詩句看起來沒有走推理系,有的話問題下方
01/26 18:14
163F推mamorui: 沒有按Deep think其實是走V3, 按了才是R1(或者R1-
01/26 18:11
164F推mamorui: 沒說他們沒花錢,重點前人pretrain花多少,嘲笑前
01/26 11:19
165F推mamorui: 然後是DeepSeek-V3宣稱557萬,但strawberry幾個r也
01/26 11:03
166F推Enzofulgura: 看完覺得Deepseek比較懂得王家衛XD
01/26 11:39
167F推wangm4a1: 站在巨人肩膀上 科技正常現象
01/26 11:33
168F推mamorui: 簡單說,成本漂亮那就不要有那麼多別的模型的影子
01/26 11:07
169F推Liberl: 股癌的台股美股電報群已經有很多大神分析過了
01/26 11:53
170F推stlinman: 認真說一下繪圖AI是發散->收斂,負向提示詞或二次抹
01/27 03:02
171F推tradeent: 請問樓上怎麼加電報群
01/26 11:55
172F推tcypost: 這邊對作家最有用的是R1,對學生有用的是4O
01/26 14:14
173F推PoloHuang: 這邊高手好多
01/26 13:39
174F推s213092921: 重點是Deepseek背後的成本只有ChatGPT的20分之1
01/26 10:34
175F推mamorui: 開源的原因很好懂 我之前整合資料庫 免費的最popul
01/26 11:31