聯發科傳奪 Google AI 大單
https://reurl.cc/GAKK8d
經濟日報 記者李孟珊/台北報導
2023-06-19 03:14
Google衝刺AI,傳找聯發科(2454)合作,攜手打造最新AI伺服器晶片,並將以台積電5奈
米製程生產,力拚明年初量產,象徵聯發科正式跨足當紅的AI伺服器相關晶片領域。
對於相關消息,聯發科不回應市場傳言。消息人士透露,這次Google與聯發科的跨國合作,
由聯發科提供串行器及解串器(SerDes)方案,協助整合Google自行開發的張量處理器(TP
U),助力Google打造最新AI伺服器晶片,且性能比透過CPU或GPU為架構更強大。
聯發科AI能量相當豐沛,旗下各產品線都有AI功能強化。聯發科總經理陳冠州先前曾公開表
示,不論是終端或雲端的AI,如何迎接大型語言模型(LLM)的發展趨勢,都是聯發科在思
考的議題。
陳冠州認為,聯發科在AI運算技術領域投入很多,從幾年前就認為,未來的運算不只是CPU
、GPU,還會有基於AI的APU趨勢會興起,所以也在其天璣5G晶片中導入APU架構。聯發科將
於10月底推出天璣系列第三代晶片天璣9300,將具備基於LLM的AI運算技術。
業界解讀,如今Google上門找聯發科攜手開發最新AI伺服器晶片,意味聯發科在AI的實力深
獲肯定,也是聯發科跨足當紅的AI伺服器領域一大里程碑。
業界指出,Google多項服務都與AI有關,多年前投入深度學習技術後,發現運用GPU衍生出
的運算成本十分昂貴,因此Google決定自行開發深度學習專用的處理器晶片TPU,並於2015
年亮相第一代TPU處理器,部署到自家資料中心。
回顧Google當年在開發者大會首次揭露其TPU,與當時的CPU與GPU相比,其TPU能提供高出30
至100倍的每秒浮點運算性能,在整體運算效能表現有多達15到30倍的提升,甚至在效能、
功耗比上,更是獲得近30至80倍的改善,如今Google的TPU晶片已經來到第四代。
消息人士透露,聯發科自行研發的Serdes已經有多款產品量產,技術成熟,此次協助Google
打造的AI伺服器晶片將採台積電5奈米製程生產,預計今年底前送交給晶圓廠製造(tape ou
t),力拚明年初量產。
業界人士說明,高速SerDes是兩個獨立的設備,即發送器(串行器)和接收器(解串器),
是雲端數據流量和分析的重要關卡,主因隨著大規模資料中心增加,這種資料中心通常需要
各種不同形式的網絡,從伺服器到機架路由器的頂端、從機架到機架,以及從各地或全世界
的資料中心進行遠距離運輸,而透過高速SerDes晶片,將可解決超高速傳輸的問題。
心得/評論:
發哥,之前老黃來台的時候有去站台發哥開發車用AI,現在又和谷歌聯手,開發AI手機晶片
,真是左右逢源啊?
--