告別“云端依賴”!邊緣計算讓AI在設備端“獨立思考”
2024年11月,普華永道美國全球半導體主管、合伙人Glenn Burm在一份報告中指出:人工智能專用芯片市場(包括GPU、加速器和HBM芯片)預計將在2028年飆升至1,500億美元規模。這些專用半導體芯片為從生成式AI模型到物聯網解決方案的尖端AI應用提供核心算力。
當前,產業焦點集中于開發兼具頂級性能、可擴展性與能效的芯片設計,然而AI芯片的性能發揮同樣取決于數據處理的位置——邊緣AI有望成為撬動全行業升級的支點,實現“水漲船高”的協同效應。
人工智能與邊緣計算的崛起
邊緣計算與AI技術的迅猛普及已徹底變革各行業,從汽車制造到工業制造、醫療健康、電子設備、零售及金融服務等領域,為企業和消費者帶來更智能、更快速、更安全可靠的解決方案。
這些快速增長的技術方案依賴于云計算來處理海量AI工作負載。盡管云端生成式AI面臨高昂成本,但其近乎無限的內存容量與算力資源,意味著在可預見的未來,基于云平臺的應用程序仍將主導AI應用的發展方向。
當人工智能應用的計算處理主要在云端進行時,會帶來安全、隱私、響應時間和可擴展性等方面的挑戰。以自動駕駛汽車為例,為確保安全高效運行,車輛需要近乎實時的響應能力,而集中部署于云端的計算資源易引發延遲并影響性能。
邊緣AI正帶來變革性突破
邊緣AI通過將人工智能直接嵌入終端設備,在數據源頭進行近域處理,而非依賴異地云計算數據中心,從而能帶來更卓越的性能表現、可擴展性、安全防護與創新能力。
邊緣AI的分布式架構天然具備卓越的可擴展性,使得在龐大設備集群中部署專為邊緣場景優化的AI應用變得更簡便、更經濟高效。更重要的是,通過在邊緣端直接處理潛在敏感數據,該技術能強化隱私保護與安全防線,顯著降低數據泄露風險。邊緣計算還大幅提升了系統可靠性,即使面臨間歇性網絡波動甚至脫機運行,設備仍可維持核心功能運轉。
這場技術變革的核心驅動力在于邊緣AI芯片設計——通過融合科學突破、工程實踐及AI優化技術,打造出能在本地完成即時數據處理的專用芯片。
為邊緣AI提供支持的芯片設計
在邊緣端執行復雜生成型AI處理的迫切需求,正催生多重技術挑戰,需滿足包括實時處理需求、嚴格的成本要求、有限的內存資源、緊湊的空間要求以及強制性的功耗預算。
傳統芯片架構在邊緣場景面臨嚴峻挑戰,其根源在于存儲器與處理器間持續數據搬移帶來的高昂能耗代價。特別是運行大型語言模型(LLM)等AI工作負載時,頻繁的內存訪問將引發性能瓶頸。為突破此限制,新一代芯片架構將AI加速器與優化的內存層次結構深度集成,顯著降低對外部存儲的依賴,從而實現更快、更高效的處理能力。核心原則是最大限度地重復利用已加載到芯片上的數據。
實現智能設備感知與理解環境的能力,必須依托強大的系統芯片(SoC)解決方案。三維異構集成技術將成為必然演進方向——通過在芯片上使數據處理單元、存儲單元與專用AI加速器更緊密集成,大幅提升協同效率。垂直結構對邊緣AI尤為重要:不同于平面結構的微縮化路徑,3D架構在相同基底面積上垂直構建計算單元,如同高層建筑向空中拓展空間。該技術在閃存領域已得到很好的應用。這些技術突破帶來三重效益:在保持同等運算性能的前提下,芯片制造成本顯著降低、能耗大幅削減,同時實現算力進一步躍升。正是此類高性能專用芯片的誕生,才使人工智能技術的規模化落地成為可能。
這些技術進步有一個共同點。它們都需要使用此前從未在芯片生產中應用過的全新“智能”材料。新型3D結構需要完全不同的材料層疊方式,從水平層疊轉變為垂直結構。此外,許多常用材料在進一步縮小尺寸時,其性能會發生劇烈變化(例如,銅在尺寸僅為幾納米時導電性能會顯著下降)。
與此同時,機械和熱學性能正變得愈發重要。如今,芯片表面的發熱量已超過電磁爐灶面。在分層結構中散熱正變得越來越具挑戰性。開發能更好地滿足這些要求的全新材料,正成為芯片行業日益重要的任務。
新材料的發現任務異常艱巨,將數十種潛在元素組合成多種不同的三維結構,這一挑戰似乎令人望而生畏。但基于當前芯片運行的全新工具,有望推動未來芯片技術的革命性突破。
例如,人工智能有助于開發新型高度專業化的材料,使半導體更快、更高效且耐高溫。它還可以用于進行虛擬實驗——可以在不同溫度下測試材料的行為,是否與其他物質發生反應,或其純度可以達到何種程度——而這一切都在實驗室混合之前就已完成。
當前,用于訓練AI的模型必須適應邊緣計算環境,傳統模型所需的算力過于龐大,邊緣設備難以滿足如此大的算力需求。由于存在這些限制,開發者正在突破傳統深度學習的范疇,其中的一個方向是——AI不再基于數據庫中的數百萬個示例進行訓練,而是通過觀察人類訓練師來學習。這樣,邊緣AI設備既能提升計算效率,又能實現高推理性能。
改進尚需時日,但前景可期
如今,成本和效率仍是邊緣人工智能成為主流的障礙。所幸的是,已有跡象表明這一進程已然推進。
最近,Epoch AI的一項全面分析顯示,自2012年以來,用于預訓練語言模型的算法改進速度已經顯著提升。研究發現,實現特定語言模型性能所需的計算資源大約每八個月就會減少一半;SemiAnalysis的預測更樂觀。該機構認為,大型語言模型(LLM)的算法改進速度可達每年4倍至10倍。
無論是那種預測,這些速度都遠超摩爾定律。同樣,推理定價成本也呈現出指數級下降趨勢,例如,GPT-3級別的成本在不到三年內已下降約1,200倍。
得益于取得的重大進展,邊緣人工智能已然成為現實。相信在未來幾年內,該技術還將帶來顯著的增長潛力和創新成果。隨著人工智能應用在越來越多的領域得到普及,對嵌入邊緣設備的高性能、高效率專用芯片的需求將持續增長。
本文翻譯自國際電子商情姊妹平臺EETimes Europe,原文標題: