回爆文列表

[新聞] 告別GPU OpenAI推出極速晶圓引擎模型

📅 2026-02-13 11:13 👤 h0103661 (單推人) 每日換婆 (1/1) 276 #PTT爆文
市場相關情報
爆文摘要 Summary
  • 摘要 OpenAI 推出 Cerebras 晶圓引擎驅動的 GPT-5.3-Codex-Spark 模型,主打即時軟體開發,速度破千 tokens/s。
  • 觀點 市場預期衝擊 GPU 供應鏈,台積電(GG)成關鍵,股價受關注。部分看衰 NVIDIA,但也有人認為技術尚待驗證。
原文標題: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras 原文連結: https://www.cerebras.ai/blog/openai-codexspark 發布時間: 2026-02-12 記者署名: James Wang 原文內容: Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b y Cerebras, is available in research preview. This marks the first release in ou r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti me software development where responsiveness matters as much as intelligence. Po wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli ng near-instant feedback in live coding environments. 今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並 開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速 度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的 強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近 乎瞬時的回饋。 Agentic coding has fundamentally changed software development. For the first tim e, machines can autonomously work for hours or days without human supervision. B ut this mode of interaction can also leave developers feeling out of the loop wi th long wait times and less opportunity to direct the work. As software developm ent is iterative, developers need to inject taste, direction, and sensibility al ong the way. Codex-Spark is designed for this kind of real-time, iterative work. It is fast, responsive, and steerable, putting the developer back in the driver ’s seat. Codex-Spark is a smaller version of Codex optimized for fast inference. On agent ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0, it produces more capable responses than GPT-5.1-Codex-mini while completing tas ks in a fraction of the time. Codex-Spark excels at making precise edits, revising plans, and answering contex tual questions about your codebase. It’s a fast way to visualize new layouts, r efine styling, and test new interface changes. 「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時 甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的 機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力 。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新 掌握主導權。 Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro 與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min i,且完成任務的時間僅需後者的一小部分。 Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺 化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。 "Cerebras has been a great engineering partner, and we’re excited about adding fast inference as a new platform capability. Bringing wafer-scale compute into p roduction gives us a new way to keep Codex responsive for latency-sensitive work , and we’re excited to learn from developer feedback on how to compose our comp ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria l Compute at OpenAI. OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很 高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏 感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算 能力整合進流暢的工作流中。」 Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade r goal is to accelerate a wide spectrum of AI workloads across both real-time an d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg est on-chip memory of any AI processor, enabling high-speed inference at thousan ds of tokens per second per user. The architecture scales out to thousands of sy stems, extending fast memory capacity into the multi-terabyte domain to support trillion-parameter models for both training and inference. We expect to bring th is ultra-fast inference capability to the largest frontier models in 2026. Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th e Codex app, CLI, and VS Code extension, with API access rolling out to select d esign partners. Try Codex-Spark rolling out today. Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步 (Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最 大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架 構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓 練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。 Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex -Spark。 心得/評論: 上個月我有發了兩家合作的消息, 今天正式推出第一個合作產品,推理速度破千的GPT-5! 給大家一個比例尺:平常用的GPT-5速度不到一百。 Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算, 由於能直接載入整個AI模型到運算單元上, 速度是GPU的數十倍, 這是Cerebras成立以來第一個企業級應用, 或將衝擊整個GPU市場。 --
美股投資情報

SogoTrade 鄉民都在用的美股神級工具

PTT 鄉民熱議!開戶享 $88 美金 現金回饋,交易免手續費,複委託的完美替代方案。

立即開戶領獎勵

鄉民討論

1F L1ON 台積電噴 11:16
2F ccdrv 都不用gpu NV要涼了 11:16
3F mopa 還是要台積電... 11:17
4F maimss 會不會有人不玩了?…. 11:18
5F joygo 關鍵字 台積電 11:18
6F woko 這超大威化餅真的能吃啊...?太厲害了 11:19
7F b9513227 又是台積電 11:19
8F Brioni GG噴 NV哭 11:20
9F MoneyDay5566 沒人在乎 11:20
10F Marginal GPU需求下修? GPU市場要被衝擊了? 11:20
11F Brioni 黃爸直接砸錢買下來掐死你 11:21
12F DonDonFans NV 88 11:22
13F tomdavis 能訓練再來說取代gpu 都幾年了還在亂下標 不專業 11:23
14F ZO20 還是要台積 結案 11:24
15F Gipmydanger 推論跟訓練本來尋求就不一樣 11:24
16F kload 老黃:我不投資你就扯我後腿? 11:24
17F tomdavis 跟去年說Deepseek 會終結運算需求一樣的知識水準 11:24
18F onekoni 台積電 11:28
19F onekoni xddd 啥都要扯到台積電 2330真的無腦多 11:28
20F pttstock GPU is over! 11:28
市場相關情報
21F Lhmstu 沒人在乎 11:28
22F howdiee 又又又又又要被取代了 11:29
23F sonatafm2 看成曲速引擎 想說有曲速AI引擎都出來了還不飛天 11:29
24F deann 誰代工? 11:30
25F qweertyui891 誰用鏟子 鏟子是什麼形狀 不重要 11:31
26F nightop 黃老爺要哭了 11:33
27F s56565566123 台積電又噴 11:33
28F cwolf 滿庫存的GPU沒電力用?投放廣告? 11:33
29F josephpu 亂下標才有高能兒看啊 嘻嘻 11:35
30F searchroy 管你多快,沒電都算庫存 11:36
31F josephpu cpu藥丸惹 gpu藥丸惹 tpu藥丸惹 11:36
32F gladopo 超巨大那個嗎? 成本很高的說 11:36
33F scum5566 算這麼快 CPO該噴了吧 11:38
34F apolloapollo 蛋雕 11:40
35F goodevening 難怪老黃說1000億投資沒有確定 果然被骨仔 11:41
36F s881720 OAI還有錢喔 嘻嘻 11:41
37F house911 台雞雞受惠 ? 封裝測試也會受惠 ? 11:41
38F abc0922001 又是台積電代工,賣鏟子怎麼輸阿 11:42
39F Like5566Like NV掰 11:42
40F tmdl 美股不歡迎太快的 11:45
市場相關情報
41F grtfor AI大廠都想要逃離NV 11:47
42F roseritter 一次整片的 成本和產量..... 11:48
43F yutaka28 其實真的要整片的話,我一直不懂真正獨家在哪裡? 11:48
44F yutaka28 最困難的技術不是其實是台積嗎 11:48
45F yutaka28 設計部分困難的點在哪?其他公司無法設計嗎? 11:49
46F yutaka28 不是其實都是依賴台積的良率? 11:49
47F furbyyeh NV is over 11:51
48F strlen 老黃這輩子就這樣惹 11:52
49F MorikonHase 鏟子 11:52
50F gladopo 整片最難的部份台積包了,有凱子付錢能做就做 11:52
51F roseritter 之前很少人 敢搞這種專武等級的產品 11:53
52F keven92110 聽不懂 晶圓級引擎是什麼意思 11:56
53F PA5566 直接用晶圓跑啊 真的假的 11:56
54F kunyi 三星五奈米也搶不到? 11:57
55F a79111010 就說了會走BTC的路 顯卡之後就是專用礦機的概念 11:58
56F a79111010 顯卡終究只是過度的產品 需求上來就需要專門的 11:59
57F haworz 這篇需要翻譯翻譯,晶圓引擎是啥?用整片晶圓把GPT 11:59
58F haworz 硬體化嗎? 11:59
59F gladopo 察Cerebras就有相關說明了 12:02
60F gladopo 之前的關鍵字是 44GB on-chip SRAM 12:03
市場相關情報
61F roseritter https://www.cerebras.ai/chip 12:03
62F s1001326 99老黃 快死了 12:03
63F roseritter 他就WSE-3超小核 佈滿整塊 12:06
64F FirePopcorn 台積電噴噴噴噴噴 12:07
65F fakelie 那就是雞雞5nm + 更多記憶卡蛙 12:08
66F ohya111326 好了啦 奧特曼 沒人相信你 12:08
67F jympin GPU IS OVER? 12:08
68F mopa 以後做出來的晶片不會是圓形吧 跟晶圓一樣大 完全不 12:08
69F mopa 浪費 12:08
70F allenmusic gpu太貴了 12:08
71F gladopo 這東東真的紅的話就肯定是gg的單,沒法跑 12:08
72F JoeyChen 直接載入整個AI模型 所以關鍵是記憶體? 12:09
73F roseritter 人家直接用SRAM 粗本的 12:09
74F pinkg023 NV要幾根 12:09
75F roseritter 我是覺得產能很受限啦 除非你早早下很大單等著 12:10
76F stanleyplus TSM 322仙人指路 12:11
77F qazw5520 老黃掰掰 12:12
78F JoeyChen 問一下 那gpu可以也套用這種晶圓級記憶體模式嗎 反 12:12
79F JoeyChen 正記憶體越多越快越好 12:12
80F beavertail97 NV之前不是收購GROQ? 看何時把LPU整合入GPU 12:12
市場相關情報
81F changmary 台G利空 高價GPU換低價RISC 12:12
82F lusifa2007 台積但不是2奈米 要出大事了 12:13
83F fakelie 三星5nm良率有沒有上來?有ㄉ話GG就GG懶 12:13
84F ganninian 輝達要蛋雕了嗎 12:14
85F cpz 回答快但答案垃圾有什麼用 12:14
86F motan 蛤?所以只是記憶體反應速度?sram 不是本來就反應 12:14
87F motan 快嗎 12:14
88F turnkolan 關鍵字:台積 12:15
89F poeoe 這怎麼可能對NV有啥重大影響啦…… 12:15
90F roseritter 架構不一樣 H100 die size 814 WSE-3 46225 12:15
91F onekoni 出什麼大事 舊產能再利用xddd 省capex 噴爛 12:15
92F fakelie WSE-3ㄉ話 5nm就夠ㄌ 12:15
93F onekoni 五奈米廠折舊早攤完了 純純的利潤像大海一樣啊 12:16
94F vc39 全世界股民都要買台積電了 12:16
95F fakelie 三星5nm良率有上來ㄉ話 吃得到 12:16
96F tsubasawolfy 這跟GOOGLE那個TPU同概念? 不過做鏟子的鐵都2330的 12:16
97F roseritter GPU 小片 配合HBM去做 這個就是一體機 12:16
98F lusifa2007 輝達哭哭 台積二奈米可能要少訂單還不出大事哦 有 12:17
99F lusifa2007 腦嗎? 12:17
100F roseritter 100x-defect-tolerance-how-cerebras-solved-the-yi 12:17
市場相關情報
101F roseritter eld-problem 良率夠高 壞點爆掉的小核夠少 12:18
102F nrrakaur 產能都被NV包了,這晶片找誰做? 12:18
103F a23268744 GG還有產能嗎 12:19
104F roseritter 理論上就能做 該文寫得很淺白 12:19
105F vc39 不管幾奈米廠商都會想辦法讓自己的產品可以用台積 12:19
106F vc39 電做的晶片,All in 2330跟TSM就對了。 12:19
107F JoeyChen 全部做在一片上理論上更快吧? 12:19
108F gladopo 下5nm又不走先進封裝還好啦,只是聽說這東東很難做 12:20
109F lusifa2007 5奈米三星已經可以低價搶單了 12:20
110F roseritter SM的核心 和WSE-3核心大小不一樣 同樣的壞點率 12:20
111F fakelie 看來就是計算晶片生產門檻降低 記憶體需求增加 12:20
112F roseritter 你得到整體可用面積不同 12:21
113F furnaceh 這種晶片怎麼可能說做就做得出來 12:25
114F good10740 整片晶圓發熱量,也挺驚人 12:26
115F roseritter 封裝也是個問題 也太大 12:27
116F la8day 這家真的有人用喔 厲害了 12:28
117F gladopo 老黃買下來就又少個對手了 12:29
118F cylu7878 台積又要噴 出關目標價2330 12:29
119F tsubasawolfy 要gpt用平鋪直敘的方式解說。回答因為現行LLM運算是 12:32
120F tsubasawolfy 在多張gpu跟gpu之間一直把資料搬來搬去。這種直接大 12:32
市場相關情報
121F tsubasawolfy 晶圓可以省去搬運時間。壞點問題就在硬體層面繞過去 12:32
122F tsubasawolfy 不要用。 12:32
123F HiuAnOP 黃藥丸! 12:35
124F moto000 抄goog? 12:39
125F tsubasawolfy 順便問了發熱量。回答說跟gpu是高頻小面積需要強散 12:44
126F tsubasawolfy 熱,它是低頻跟大面積,後面直接做液冷微流道帶走熱 12:44
127F tsubasawolfy 。在LLM上每token產生的焦耳數更低。 12:44
128F RaiGend0519 NV涼了 12:44
129F RaiGend0519 5奈米對台積電沒有太大優勢,看量了 12:45
130F RaiGend0519 這條路走得通,對岸也看到光XD 12:46
131F pinkg023 5奈米應該只是現階段吧,軍備競賽沒理由不往更高密 12:46
132F pinkg023 度推 12:46
133F roseritter 中芯去做 應該會哭出來 12:46
134F wolver pass, 文組可能比較喜歡 12:47
135F devidevi 需要啥硬體,大家應該比較關心這個 12:50
136F JoeyChen 用2奈米做會n次方快嗎 12:54
137F sonyvaio Open AI 就是差評 12:55
138F iwcuforever 好險還有台積,但我的alphabet是不是下去了 13:03
139F wolver 孫正義那300億看來撐不到2027了 13:07
140F tsubasawolfy 硬體回答說只有GG 三星 INTEL有能力。但只有GG有跟 13:08
市場相關情報
141F tsubasawolfy 它們完成前面兩代的經驗。所以還是GG的天下 13:08
142F roseritter 看產量吧,量少只能當專武用 13:15
143F mdkn35 甲骨文:幹 要呷骨了 13:16
144F h1y2c3y2h1 從燒錢跑道換到另一個燒錢跑道 13:19
145F redbeanbread 老黃6090賣五萬我就原諒你 13:21
146F madeinheaven 取代不了 因為這個超級貴 13:23
147F redbeanbread 太太太 咦 五奈米 13:23
148F AbianMa19 反正繼續噴 13:26
149F fay001 openai就是不長進,gemini 聰明又博學 13:29
150F holdmyass 2330:你們打完叫我 13:30
151F JoeyChen 問啥大家不看好這架構 不是很符合AI發展的需求嗎 13:31
152F JoeyChen 良率問題可能也被GG解決了 13:31
153F madeinheaven 因為很貴 13:35
154F v21638245 整天叫,去空nv阿 13:38
155F leeroy277 先搶的到產能再說 13:41
156F onekoni 2奈米輝達不用亞麻要搶喔 你敢退單嗎 13:55
157F onekoni 想太多 現在2奈米廠商排隊搶 輝達寧可捏著也不願意 13:56
158F onekoni 退單 13:56
159F onekoni 亞麻T4晶片現在擠不進去單 你敢退亞麻直接塞進來 13:57
市場相關情報

免責聲明: 本文內容擷取自 PTT Stock 板爆文,推文版權歸原作者所有。本站僅進行自動化整理與情緒標記,不代表任何投資建議。投資前請審慎評估,並自負風險。