※ 引述《madeinheaven ()》之銘言:
: 三星早就看到低成本推理晶片的未來了
: 三星明年推 AI 晶片 Mach 1,採 LPDDR 而非 HBM 記憶體
: https://technews.tw/2024/03/21/samsung-to-launch-ai-chips-mach-1/
: 節錄:
: 三星 Mach-1 設計專注於提供專用於推理的加速功能,特別適合於邊緣計算應用。Mach-1
: 是基於專用積體電路(ASIC)設計,配備 LPDDR 記憶體,適合邊緣計算應用,能在推理
: 過程中大幅降低所需的記憶體頻寬。
: 與現有設計相比,Mach-1 能將推理所需記憶體頻寬大幅降低約 0.125 倍
: 另外下一代Mach-2正在開發
: Deepseek再發新模型 輝達急了:未來需要更多AI晶片
: https://www.ctee.com.tw/news/20250128700047-430704
: 節錄:未來推理需要大量輝達 GPU 和高效能網路
: NVIDA都說了未來推理需要大量GPU
: 所以未來低成本的推理晶片才是王道~!!!
NVIDA說的確實是對的
跟他急不急沒什麼關聯
transform模型的趨勢是
只要模型越大,效果就越好
這已經是鐵打的事實
無數paper都已經證明過這樣的結果
所以這年頭推出的模型一個比一個大
模型的大小是沒有極限的
極限在於錢不夠,沒錢買算力做更大的模型
先不論DS有沒有造假
假設DS說的都是真的好了
他也開源了
那接下來就很簡單啦
做一個更大的模型
表現一定更好
這是無庸置疑的
未來算力絕對不會太少
只有不夠的問題
...