[新聞] Google壓縮技術可省記憶體大小達6X
https://money.udn.com/money/story/5599/9403705?from=edn_newest_index
Google發表了一種演算法並宣稱這技術能改善 AI 模型的記憶體使用效率
。受此消息影響,記憶體晶片和儲存概念股周三全面下挫。
美光股價跌3.4%,盤中一度大跌6.1%,連續五日下跌;Sandisk大跌 3.5%,連續四個交易日
下跌。儲存裝置製造商希捷(Seagate)和威騰電子(Western Digital)股價周三各跌2.8%
和1.6%。
亞洲記憶體股周四開盤也跟著重挫,三星電子和SK海力士各跌2.8%和3.4%。
Google周二晚上推出了 TurboQuant壓縮演算法,並說 TurboQuant不僅提升 AI 模型速度和
效率,也能大幅減少記憶體使用量。
這項演算法針對的是「向量」(vectors),其功能是協助 AI 模型理解並處理從簡單到複
雜的資訊。Google 解釋說,高維度向量會消耗大量記憶體,進而在「鍵值快取」(KV cach
e)產生瓶頸;而此快取技術正是讓 AI 模型能「記住」已處理過的資料,進而加快回應詢
問速度的關鍵。
雖然高維度向量可透過「向量量化」技術來壓縮,但 Google 說,這技術本身也會產生記憶
體問題,因為需要計算和儲存額外數據,「這在某種程度上違背了向量量化的初衷。」Goog
le 去年 4 月發表研究論文所提出的 TurboQuant,正是為了解決這個問題。
記憶體和儲存裝置製造商先前因零組件短缺,能大幅調漲價格。如今,有投資人可能認為 A
I 指標企業未來不再需要這麼多記憶體,削弱美光等供應商強大的定價權。
但也有人認為事情沒那麼簡單,因為當技術進步降低了資源成本時,反而會因為資源變得更
容易取得,進而推升了需求。
Google 說,其新型壓縮演算法能將 AI 模型的鍵值快取(KV cache)記憶體用量減少至少
六倍,並將速度提升高達八倍,這實質上降低了「推論」(即執行 AI 模型)的成本。有分
析師拿傑文斯悖論(Jevons paradox)解釋,這將帶動 AI 模型的普及,進而導致對記憶體
更多的需求。
Lynx Equity Strategies發給客戶的報告中寫道:「Google 所詳述的方法,在未來 3 到 5
年內幾乎不會減少對記憶體和快閃記憶體的需求,因應供給極度受限,」這個研究機構重
申了對美光 700 美元目標價;美光周二收盤價為 382美元。
===========
難怪這幾天
華邦跌破百了還在繼續跌
旺宏直接躺平亮燈
群聯見不到底的跌了再跌
有潘董買自家股票的加持也沒用
南亞科有私募基金的大話題加持
一樣紅燈直下轉綠
難怪廠務設備今天一起狂跌
因為華爾街人認為
只需要1/6記憶體的產線就夠用了
不需要擴廠
Memory is over??
--
免責聲明: 本文內容擷取自 PTT Stock 板爆文,推文版權歸原作者所有。本站僅進行自動化整理與情緒標記,不代表任何投資建議。投資前請審慎評估,並自負風險。
鄉民討論