亚洲v欧美v另类v综合v日韩v,好看的黄色片,这里只有精品免费视频,特级做a爱片久久久久久

邊緣計算行業專題報告:始于AI,賦能應用
作者 | 未來智庫2023-05-22

1. 投資要件

當前市場普遍聚焦于云端算力發展,忽視了邊緣算力在 AI 乃至社會數字化發展中的重要 地位。隨著 AI 大模型應用逐漸滲透進入千行百業和各類垂直細分場景,單純的大規模計 算中心提供的算力將不能滿足多樣化的 AI 運算需求。基于幾點判斷,我們認為邊緣算力 具備不可或缺性: 第一,未來隨著計算芯片加速發展,單位算力成本中,電費與土地費用占比將愈發提升, 算力成本將取決于智算中心的地理位置,以我國舉例,未來算力成本較低的西部將是云 端算力主要部署地。因此,大算力與低時延需求將出現錯配。 第二,AI 模型推理 Token 費用較貴,如果需要成熟商用,邊緣預處理將是必須選項。通 過邊緣部署的算力,將用戶的多樣化需求進行本地的預處理,簡單的需求直接利用本地 模型和算力推理,復雜需求通過邊緣算力預處理后,精簡成最少的 TOKEN 發送至云端, 從而能夠最低成本的實現應用功能,加速商業化。同時,面向小算力時,ARM 架構由于 其架構簡單,比英偉達復雜架構計算卡更具成本優勢,也將加速邊緣小算力的滲透速度。

最后,無論是對用戶個人敏感數據進行推理,還是推理設計商業敏感數據,完全與云端 隔絕的邊緣算力,能為用戶提供最好的數據安全保護。因此,從時延、成本、隱私三大 方面來看,邊緣算力未來算力體系的重要構成部分,也是 AI 需求連接萬物的毛細血管。 當前市場普遍聚焦于邊緣場景中的大單品邏輯,忽視了邊緣生態的多樣性。當前市場聚 焦于智能音響,智能耳機等大單品及其部件,主要是其作為 AI 入口的邏輯更具備直接 性。但我們認為,隨著 AI 加速向邊緣滲透,應用的形式將愈發多樣,越來越多的中小廠 商將參與到不同場景,不同細分領域的 AI 智能硬件開發中來。隨著應用形式愈發多樣, 如何在海量不同設備上部署標準化的 AI 邊緣算力將成為一個重要問題。我們判斷,物聯 網模組將成為承載這類算力的重要形式。物聯網模組集成了通信芯片與全球大廠的算力 芯片,能為海量場景和中小廠商提供穩定的邊緣通信能力和邊緣算力,大大降低了中小 開發者部署邊緣算力的門檻和難度。AI 時代,是萬眾創新的年代,海量的開發將來自中 小開發者,而模組提供的算力,將成為邊緣算力中的重要部分。

2. 模型由大到小,AI 走上應用的快速路

今年年初,隨著 Chatgpt 的發布,以 LLM 模型為主導的生成式大模型高速發展。在 Chatgpt 之前,AI 發展通常以面向細分行業的小模型為主,追求較小運行成本下的較快商業化。 Chatgpt 問世之后,證明了“野蠻”堆砌參數與算力的生成式模型之路是可以走通的,因 此,短期內全球 AI 模型開發的風向轉向了堆砌參數與算力的模式。 隨著 GPT-4 的發布,標志大語言模型正式邁入了多模態時代,參數量近一步膨脹。4 月 份,OPENAI 創始人 SAM Altman 在一場 MIT 舉辦的活動上表示,“未來的 AI 進展不會 來自于讓模型變得更大”,我們認為,這代表著 OPENAI 之后的努力將會更多的轉向如何 讓現有的大模型更好用,滲透進更多的場景。

從北美的趨勢來看,當下,在大模型基礎上,快速建立小模型生態,正是許多大模型龍 頭正在高速推進的發展方向。如何推動模型實現“人人可訓,人人可用”已經成了海外 大廠爭相布局的方向。 4 月 12 日,微軟正式開源 DeepSpeedchat 訓練模型,這個訓練方式擁有三大核心優勢, 第一,簡化 ChatGPT 類型模型的訓練和強化推理體驗,第二,DeepSpeed-RLHF 模塊, 第三,DeepSpeed-RLHF 系統。 基于這三大特性,DeepSpeed-HE 比現有系統快 15 倍以上,使 RLHF 訓練快速且經濟實 惠。例如,DeepSpeed-HE 在 Azure 云上只需 9 小時即可訓練一個 OPT-13B 模型,只需 18 小時即可訓練一個 OPT-30B 模型。這兩種訓練分別花費不到 300 美元和 600 美元。 此外,該系統可以支持超千億參數的模型訓練,并且增強了對于單張顯卡的訓練支持, 僅憑單個 GPU,DeepSpeed-HE 就能支持訓練超過 130 億參數的模型。

如果說 DeepSpeedchat 是模型界邁向應用與生態建設的第一步,那么在五月初的幾大 變化,讓我們更加堅信了,萬物搭載模型,模型賦能萬物的時代正在加速到來。 首先,便是知名華人 AI 研究者陳天奇牽頭開發的 MLC-LLM 解決方案,MLC LLM 為用戶 在各類硬件上原生部署任意大型語言模型提供了解決方案,可將大模型應用于移動端(例 如 iPhone)、消費級電腦端(例如 Mac)和 Web 瀏覽器。 MLC 的主要功能包括了: (1)支持不同型號的 CPU、GPU 以及其他可能的協處理器和加速器。 (2)部署在用戶設備的本地環境中,這些環境可能沒有 python 或其他可用的必要依賴 項;通過仔細規劃分配和積極壓縮模型參數來解決內存限制。 (3)MLC LLM 提供可重復、系統化和可定制的工作流,使開發人員和 AI 系統研究人員 能夠以 Python 優先的方法實現模型并進行優化。MLC LLM 可以讓研究人員們快速試驗 新模型、新想法和新的編譯器 pass,并進行本地部署。

其次,我們看到了隨著 Meta 開源 LLaMA,整個北美 AI 開發者中,正在快速興起基于 LLaMA 的訓練風潮,同時隨著 Lora 等訓練方法的加速滲透,我們判斷,中小開發者蒸 餾,訓練,部署自由模型的成本正在快速降低,整個開源生態下,模型梯度分布的格局 正在加速建立。 Lora 訓練法通過凍結預訓練的模型權重,并將可訓練的秩分解成矩陣注入到 Transformaer 架構的每一層,極大的減少了下游任務的可訓練參數的數量,有效提升了 預訓練模型在下游任務的 finetune 效率。

上述的三種模型或解決方案,DeepspeedChat,MLC-LLM,Lora 模型,其中 Deepspeed 與 Lora 模型給中小開發者提供了低成本,快速訓練專屬于自己的小模型的完整工具,而 MLC-LLM 則為中小開發者在算力較低的環境或者邊緣進行模型的推理搭建了基礎,三大 工具,我們認為已經形成了 AI 走向邊緣的“基建雛形”。 上文闡述了來自開源社區或者中小開發者參與的模型應用變化,在 Chatgpt 面世以來, 大廠也在加速邊緣推理能力,小模型的開發。

2 月,全球手機與 IOT 芯片龍頭高通,展示了其在搭載 8Gen2 的手機平臺生利用 StableDiffusion 生成了圖片,耗時小于 15 秒。在 5 月,高通通過持續優化,將生成圖片 的時間縮短至 12 秒。

高通通過與其芯片配套的全棧AI優化方案,將 stable diffusion 模型從 FP32 壓縮至 INT8, 顯著的降低了運行時延和能耗,從而實現了模型在手機算力上的安全高效推理。高通發 布的全棧 AI 工具,包括了 INT8 轉化,最小化內存溢出,適配 Hexagon 處理器的 AI 加 速等功能,能夠讓 OEM 廠商快速在高通的算力環境中部署其 AI 應用。

在 5 月,谷歌也發布了其全新的語言大模型 PaLM2,并作為發布會中大部分 AI 功能的 基礎模型,值得注意的是,PaLM2 是一個擁有眾多版本和參數量的模型體系,其包含了 4 個不同參數的模型,包括壁虎(Gecko)、水獺(Otter)、野牛(Bison)和獨角獸(Unicorn), 并在特定領域的數據上進行了微調,為企業客戶執行某些任務。其中 PaLM 2 的最輕版 本 Gecko 足夠小,可以在手機上運行,每秒處理 20 個 tokens,大約相當于 16 或 17 個 英文單詞,谷歌在模型梯度分布上的重視程度,也進一步驗證了小模型作為 AI 滲透進入 萬千場景的必要性。

將視角拉回國內,國內廠商在邊緣小模型上也正在加速布局,5 月,中科創達發布 Rubik 魔方大模型,根據公司官網介紹,中科創達基于在機器人領域的深厚積累,中科創達將 智能音箱與機器人進行融合,并通過中科創達魔方 Rubik 大模型的不斷訓練,已經實現 了能夠自由對話的智能銷售機器人,可以自主回答客戶關于企業及產品的各種問題,為 企業營銷及客戶拓展提供了新的助力。

可以看出,除了開源社區和前沿學者正在不斷加速模型的可用性,以及邊緣推理的探索, 越來越多的大廠也加入到了布局邊緣模型的新一輪“軍備競賽”中來,我們認為,隨著 兩方的共同努力,一個由“基礎模型”,“低成本定制工具”,“模型優化工具”三者共同 構建的邊緣模型生產與利用體系將會飛速發展。

3. 梯度分布,算力的終極呈現形式

當前市場主要聚焦于云端算力,但往往忽略了云端之外的算力同樣重要,未來隨著摩爾 制成達到極限,數據傳輸成本,時延,隱私等等因素的影響,我們早在 2022 年發布的報 告《算力革命:泛在、綠色與生態》中就強調了由運算算力,邊緣算力,本地算力共同 構成的“泛在”算力,是算力的終極存在形式。 算力當前的供需格局決定了,“泛在”或者是“梯度分布”將會是算力最終的呈現方式, 云計算和邊緣計算的有機結合:“云—邊”一體有望流行。下面我們將從算力的供需角度, 來闡述“泛在”的必要性。

供給端 1:受到量子隧穿效應影響和商業化成本影響,硅基單核芯片制程將在 3nm 達 到極限。硅基芯片晶體管的柵長在低于 3 納米時極易發生量子隧穿效應(其原理為,當 柵長縮小到一定程度的時候,即使沒有加電壓,源極和漏極都接近互通,晶體管便失去 了開關的作用,因而無法實現邏輯電路)。因此,通過更加先進的納米制程工藝提升單核 芯片性能將面臨技術上的嚴峻挑戰。 由于量子隧穿效應的存在,3 納米后,單芯片成本將會急劇上升,華為與羅蘭貝格數據 顯示,3 納米制程手機端旗艦級 SoC 單芯片(以高通驍龍 855 為例)成本較 7 納米顯著 增加約 200 美元,高昂的成本將會極大程度制約終端客戶需求,最終降低算力供給的增 加。

即使在能夠接受較高成本的大型數據中心等用戶中,處理器性能的提升依舊受到制約, 受存儲、系統、軟件限制(性能)和單位算力功耗顯著上升(功耗)兩大因素影響,芯 片核心數量將在 128 核達到上限。根據羅蘭貝格數據,現有的馮·諾依曼架構下,通過 擬合不同核心數量的芯片計算能力樣本數據,我們發現多核處理器隨核數增長,算力增 長的倍數快速下滑:從 2 核增至 4 核時,總算力可提升 1.74 倍,而當核數由 128 核增 至 256 核時,總算力水平僅能提升已跌破 1.2 倍(1.16X),已顯著喪失經濟性。

在單核性能以及多核提升帶來的雙重壓制下,大型數據中心帶來的增量算力邊際增量將 會迅速遞減,而興建大型數據中心需要的土地,人力,時間成本將在海量算力時代制約 “集中式”的算力發展。

供給端 2:算力爆發的背景下,網絡性能限制和成本將會導致數據中心的算力難以滿足 復雜場景下的需求。網絡帶寬及網絡時延共同決定了網絡信道的傳輸質量,影響到網絡 算力的發揮。具體而言,“網絡化”算力的使用需要經歷終端與云端的數據雙向傳輸過程, 這段過程是通過網關、基站、數據中心等不同網節點之間的信道所實現的,其中信道的 容量決定了傳輸的速率(帶寬),信道的長度與材質決定了數據傳輸的時延,兩者共同影 響了數據傳輸的效率。

即使隨著當今 5G 網絡加速完善,無論從時延以及容量都相較于 4G 網絡出現了較大程度 提升,但相對于未來社會的海量數據需求來看,完全依靠 IDC 提供算力支撐仍是效率較 低的選擇,無論是智能駕駛對于時延的要求,亦或是傳輸高清視頻圖像等帶來的大額帶 寬成本,都將進一步加劇“集中式”算力與“分布式”需求的錯配。

供給端 3:算力高能耗與全球雙碳目標之間的矛盾。 隨著芯片制成逐漸接近量子隧穿效應發生的制程,當前主流芯片的能效比正在逐漸接近 極限。單位算力功耗在過去 10 多年間經歷了顯著下降,但隨著硅基芯片工藝制程提升的 難度凸顯,其進一步下探幅度有限,這意味著,等量算力的提升,即將對應等量能耗需 求的提升。面對未來百倍的算力需求,高能耗問題將成為人類算力發展過程中的重要瓶 頸。 同時,隨著我國雙碳目標的提出,對于數據中心的耗電量,PUE 值都提出了更嚴格的要 求,截至 2020 年底,中國數據中心耗電量已經突破 2000 億千瓦時,能耗占全國總用電 量的 2.7%,隨著數據中心進一步擴容,算力需求進一步提升,解決數據中心能耗問題的 需求也愈發迫切。在可見的未來,具備低時延特性的核心城市 IDC 供給將進一步被壓 縮,如何通過有效的邊緣側處理手段,使得有限的核心城市算力資源得到充分利用,也 是本輪“算力革命”急需解決的難題。

需求端:智能化社會大潮下,對應百倍流量增長需求。隨著以人工智能、物聯網、區塊 鏈、AR/VR 等關鍵信息技術逐漸成熟,社會中大量智能化場景將得到實現。根據羅蘭貝 格報告,人工智能技術將推動無人駕駛、智能辦公、智慧醫療等場景的有效落地,物聯 網技術將推動智能消防、智慧工廠、智慧農場、智能家居等場景落地,區塊鏈技術將推 動應用于數字證書、信息加密等場景落地,AR/VR 技術則可推動智慧商場、游戲、智慧 課堂等場景落地。這些場景未來將在產業領域實現跨越式發展、助力各產業創新、增強 產業數字化程度并增強市場活力,在政務領域幫助政府提升運行效率、提高城市管理水平、加強居民生活幸福度,在民生領域推動社會民生保障、創造宜居空間、實現可持續 化發展,共同推動社會向智能社會發展。

根據華為《泛在算力報告》,在人工智能、物聯網、區塊鏈、AR/VR 四大領域,到 2030 年,相比 2018 年,都將出現百倍到千倍的算力需求增長,同時對于網絡的延遲也提出了 更高的要求。

從算力需求看,人工智能技術對于算力的核心拉動點在于未來各應用場景內單設備芯片 算力的增長和人工智能技術的行業滲透率的進一步提升,物聯網主要通過低算力物聯網 設備的普及、配套云端計算中心和邊緣端計算單元的增加共同拉動算力增長,區塊鏈因安全問題要求的算力持續增長和應用場景的快速普及將帶動以云服務器為主的算力增長, VR/AR 設備的普及和普及需要的云計算中心和邊緣計算設備算力配套將共同推動整體算 力的增長。 從時延要求看,L3 級別的自動駕駛對于傳輸時延的要求在 10-20 毫秒,在進入 L4&L5 級 別后,對于傳輸時延的要求進一步提高到 10 毫秒以下;使用物聯網建設智慧工廠對車間 內部的局域網絡帶寬需要達到 Gbps 級別,最高時延須控制在 5ms-10ms 以內;在 VR/AR 游戲中,端到端的時延至少需要小于 20 毫秒,才能保證在使用過程中避免感知到明顯的 圖像滯后而導致的眩暈。

由此可見,供給端的單芯片制程、能源限制,傳輸費用,與需求端的降本,能耗,時延 所帶來的供需錯配,是算力走向泛在的核心因素。近年以來,我們也看到了中國為了解 決算力調度問題所作出的努力,其中最具代表性的便是“東數西算”與三大運營商所提 出的“算力網絡”。 為什么要強調“東數西算”或者是“算力網絡”的重要性,因為我們認為,脫離了“網 絡”的邊緣算力是沒有意義的,未來的邊緣算力一定是通過“算力網絡”,與云端大算力 一起,實現智能融合與實時調度,邊緣預處理的 token 通過算力網絡,調用云端算力進 行 token,科研機構通過“算力網絡”調度系統,實時分配與匹配各類不同的算力需求, 可以說,“算力網”的作用,在 AI 時代,重要程度將不亞于通信網絡。 當前,得益于我國“集中力量辦大事”的優勢,在“東數西算”這一頂層設計指揮下, 我國在“算力網絡”建設上已經取得了領先世界的進度。

首先是“東數西算”,“東數西算”工程首次提出于 2021 年 5 月 24 日的《全國一體化大 數據中心協同創新體系算力樞紐實施方案》,此后,在國務院發布的《“十四五”數字經 濟發展規劃》中,也再次將其作為一個重要章節進行部署。 根據官方解讀,“‘東數西算’中的‘數’,指的是數據,‘算’指的是算力,即對數據的 處理能力。”我國西部地區資源充裕,特別是可再生能源豐富,具備發展數據中心、承接 東部算力需求的潛力。“東數西算”就是通過構建數據中心、云計算、大數據一體化的新 型算力網絡體系,將東部算力需求有序引導到西部,優化數據中心建設布局,促進東西 部協同聯動。簡單地說,就是讓西部的算力資源更充分地支撐東部數據的運算,更好為 數字化發展賦能。

東數西算布局顯示,整個工程共包含 8 大算力樞紐,承擔我國算力網絡的骨干連接點, 發展數據中心集群,開展數據中心與網絡、云計算、大數據之間的協同建設,并作為國 家“東數西算”工程的戰略支點,推動算力資源有序向西轉移,促進解決東西部算力供 需失衡問題。圍繞每個樞紐節點,都規劃設立了 1 至 2 個數據中心集群。算力樞紐和集 群的關系,類似于交通樞紐和客運車站。國家發展改革委創新驅動發展中心副主任徐彬 說,數據中心集群將匯聚大型、超大型數據中心,具體承接數據流量。集群將獲得更好 的政策支持、配套保障,同時在綠色節能、資源利用率、安全保障水平等方面也會有更 嚴格的要求。

東數西算工程自 2022 年 2 月正式啟動以來,經過超過一年多的準備,八個國家算力樞 紐節點已經全部開工,正式進入全面建設階段。截止 3 月 17 日,在已經開工的 8 個國 家算力樞紐中,今年新開工的數據中心項目近 70 個,其中,西部新增數據中心的建設規 模超過 60 萬機架,同比翻了一番。至此,國家算力網絡體系架構初步形成。 站在當前的 AI 爆發起點,我們再次回看“東數西算”工程,有道理相信國家的提前布 局,大力投入,將會是我國“算力”實現高效利用,在 AI 時代搶奪先機的重要基建。 基于東數西算體系,“算力網絡”的建設就顯得更加順其自然。“算力網絡”是當前三大 運營商建設的重要方向,三大運營商積累了眾多的算力,機柜資源,如何通過“算力網 絡”的建設,使得用戶實現“有網絡的地方就有算力”,將是運營商建設“AI”時代核心 資產的最重要方向。

中國移動的算力資源網絡建設可以用“4+N+31+X”的數據中心布局來概括,即 4 熱點 區域+N 中心節點+31 省級節點+X 邊緣節點,中國移動近三年累計投資近 900 億元,累 計投產云服務器 71 萬臺,覆蓋“東數西算”全部核心樞紐;深化云邊端協同發展,實現 中心云“一省一池”,建成邊緣節點超 1000 個。

中國電信于 2022 年發布“云網融合 3.0”,提出六大特征:云網一體、要素聚合、智能 敏捷、安全可信、能力開放、綠色低碳。中國電信在智能算力領域布局相對領先,率先 構建“6+31+N+X”的四級 AI 算力架構,將有力提升天翼視聯網等重點業務的數智化能 力。 中國聯通明確推進架構先進、安全可靠、服務卓越的算力網絡新布局,為數字經濟打造 “第一算力引擎”。制定《聯通算網融合發展行動計劃 2022~2025》,提出通過云、網、 邊、端、業的高效協同提供算網一體化的新型算力基礎設施及服務,打造基于算網融合 設計的服務型算力網絡,形成網絡與計算深度融合的算網一體化格局,賦能算力產業發 展。 從三大運營商的布局可以看出,算力體系基本由從中心節點到邊緣資源池的四層體系構 建,這也驗證了我們上文所闡述的,算力梯度分布+算力網絡建設是未來中國算力的最 終形態,從三家運營商的表述中我們也可以看出,“X”即邊緣,是未來我國算力網絡的 最重要組成部分之一,我們將在下一節中探討,邊緣算力網絡資源部署的幾種模式。

4. 邊緣算力,連接 AI 與用戶的紐帶

邊緣計算,即將計算資源部署靠近用戶和數據源的網絡邊緣側,通過更靠近數據源或者 最終用戶的距離,從而實現更低的時延、更好的隱私以及更優的成本。進入大模型時代 以來,我們認為邊緣側的定義應隨著 AI 的發展進一步拓展,邊緣計算應該當是離模型 推理發生處最近的算力,或者是幫助云端算力進行預推理的算力。 不同于由超大型數據中心與智算中心形式部署的云端算力,邊緣算力的部署形式隨著智 能設備以及邊緣數據中心的出現變得愈發多樣。我們認為,邊緣算力的存在形式主要可 以分為兩類,第一類是通過邊緣算力芯片提供,通過定制 PCB 板輸出,或者通過模組形 式輸出。第二類則更加類似于傳統數據中心,通過將機柜布置在離用戶較近的機房中, 來獲得類似于本地算力的便捷性。

目前,邊緣算力的存在形式主流是邊緣計算芯片。從全球來看,邊緣算力芯片巨頭廠商 主要包括了高通、蘋果與英偉達三大巨頭。其中,蘋果的邊緣芯片主要用于其生態體系 內的如 Iphone、Ipad 等產品內,英偉達邊緣產品主要是車側的自動駕駛芯片如 Orin, 這兩家的體系較為封閉,搭載的產品數量也較少。而高通作為全球手機芯片巨頭,基于 驍龍系列手機芯片推出了一系列專為邊緣側設計的模組芯片,將傳統的 IOT 設備賦予了 算力,也改變了過去邊緣側設備只能基于功耗與成本較高的 X86 平臺的格局。當下,主 流的物聯網算力場景,如智能車機,智能零售等,普遍采用高通芯片來提供算力和搭載 系統。

經過多年迭代,高通于今年 4 月推出了最新一代的物聯網芯片 QCS8550A/QCM8550,處 理器整合強大算力和邊緣側 AI 處理、Wi-Fi 7 連接以及增強圖形和視頻功能,為高性能 需求的物聯網應用提供支持并助力其快速部署,比如自主移動機器人和工業無人機。上 述產品采用了高通優化的 AI 架構。高通 QCS8550 和高通 QCM8550 還支持增強的視頻 和圖形處理,支持沉浸式云游戲、視頻協作和視頻流媒體體驗。我們認為,隨著專為 AI 處理優化的 8550 系列芯片的推出,從芯片側來看,海外巨頭已經做好了將 AI 帶入邊 緣側的基建準備。

將芯片的視角拉回國內,國內經過幾年追趕,也涌現出了許多優秀的邊緣芯片提供廠商, 他們聚焦于處理芯片或通信芯片,為邊緣計算能力的國產替代添磚加瓦。從國內主要的 邊緣算力 SOC 提供廠商包括了全志科技、晶晨股份、瑞芯微等廠商,而邊緣通信芯片廠 商則包括了如翱捷科技、樂鑫科技、紫光展銳、移芯科技等廠商。

國內的邊緣算力 SOC 廠商采取了與高通不同的發展策略,更多的走向了綁定大廠,大單 品的形式,從產品設計階段開始,深度參與芯片與產品的融合與定制化開發,而高通則 更希望通過將芯片制作成模組,來為全球所有的中小開發者來提供標準化,易于獲得的 邊緣計算能力。 國內模組廠采用的定制化+大單品策略,一般是指客戶基于邊緣算力芯片,在 PCB 設計、 產品功能設計階段就與該芯片進行綁定,從而設計并生產出能夠完美適配芯片的產品,但前期定制 PCB,調試芯片的費用較大,需要用大批量出貨來攤薄成本,并且一旦失敗, 產品開發者需要承擔較大的虧損。因此,大量采用國產邊緣算力平臺的廠家一般包括了 如智能音箱廠商、掃地機器人廠商等具有雄厚實力的公司。

與國內邊緣算力廠商相反,高通憑借其全球市場領先地位,覆蓋了海量的下游應用場景 與中小開發者,因此,高通邊緣算力芯片中,最為重要的一個承載形式模式便是物聯網 模組。 與偏向定制化的物聯網芯片不同,物聯網模組通過對高通算力芯片的預打包,預調試, 使得中小開發者可以通過開發板的形式,快速的獲得基于模組的標準化的,穩定的通信 能力和邊緣算力。通過較小成本,較短流程的開發,中小開發者可以利用模組快速完成 產品設計和制造,大大縮短了智能設備的開發周期。面向海量中小開發者+細分領域,我 們認為,模組是承載邊緣算力無限想象空間的最佳形式。

上文提到的第二條路線是基于傳統的數據中心架構,將機房放置在離客戶較近或者離客 戶掌控范圍內的邊緣算力部署模式。今年 4 月,上海市經濟信息化委關于印發《上海市 推進算力資源統一調度指導意見》的通知中提出,要引導根據應用場景,利用存量通信 機房、變電站等設施按需靈活部署邊緣數據中心。這便是對于該類邊緣算力的部署模式 的探索。 上海的規劃中指出的一類邊緣算力部署模式便是在變電站中布置,當前,國家電網也在 積極探索利用閑置的變電站土地資源,探索“多站融合”的機會,其中就包括了基于變 電站的邊緣數據中心建設。早在 2020 年 4 月,國網首個戶外式大中型多站融合數據中 心交付,蘭州 110 千伏砂坪變多站融合數據中心是以該變電站可復用站址資源,改建 632 平米舊倉庫而成,共投產 7 千瓦機柜 172 面。

當前,邊緣算力的需求方或者部署地往往是核心城市的市中心或熱點地區,受制于核心 城市能耗指標,土地空間等因素影響,再額外興建大型數據中心難度極大,因此結合如 變電站等閑置資源再開發,將是擴充我國邊緣算力池的良好路徑。 我們從 A 股上市公司年報中,發現了正在上海積極布局邊緣計算的公司龍宇股份,公司 年報披露,公司基于前期的資源推進和布局規劃,圍繞城市智慧發展以及相關行業的數 字化轉型發展需求,前瞻布局邊緣計算 IDC 細分領域,攜手相關合作伙伴和在上海中心 城區及五大新城逐步落實資源布點,逐步形成行業先發優勢。同時,根據邊緣算力中心 單一規模較小且分布較廣的特點,積極探索業務在分布式 IT 技術架構、網絡布局、智能 運營領域的創新模式,逐步搭建邊緣算力網絡架構。 梳理本段,我們認為,未來邊緣算力將呈現設備本地算力+邊緣算力池雙線并行的發展 方式,中國的模組公司作為全球具有比較優勢的企業,有望充分讓中國制造賦能“全球 邊緣”,而中國的邊緣芯片公司,有望加速國產替代進程,讓“中國邊緣算力”加速滲透。 而 IDC 公司,則有望憑借邊緣算力池的模式,通過邊緣算力獨有的優勢,實現算力調度 收費,低時延優化收費等全新商業模式,打開行業發展空間。

5. 應用曙光已現,期待 AI 飛輪下的百花齊放

當下市場以及投資者關注的應用方向,主要集中于基于云端算力的如 CHATGPT, Midjourney,Copilot 等等,而提起邊緣智能設備或者邊緣應用時,則更多的將其作為一 種“入口”,或是直接忽略“邊緣算力”與 AI 結合的可能。 其實 AI 在邊緣側的應用或者“滲透”由來已久,其中最典型的案例便是如人臉識別,圖 像處理等分析式 AI 功能。我們日常生活中見到的如自動駕駛,智能零售、智慧工廠、智 能巡檢等場景均是由邊緣或者本地端提供算力進行解決。如英偉達的 Orin,地平線等公 司的智能駕駛芯片,就是邊緣算力運行 AI 模型的例子,自動駕駛芯片通過每秒分析上千 幀畫面,來保證車輛對前方路況的理解并做出相應反應。同時,模組廠商也在積極探索 如何讓模組算力更好的參與進車輛自動駕駛功能中來,如美格智能最新的 C-V2X MA925 系列模組,在幫助 T-BOX 與外界通信的同時,自身搭載的算力能夠提供 GNSS 服務,并 能夠內生解決 V2X 的運行,讓 T-BOX 不再需要額外掛載處理芯片。

相比于需要利用高算力進行智能駕駛的乘用車,當下,許多小型無人設備的自動駕駛正 在越來越多的依靠模組來提供相關功能所需要的算力。如國內大型工業無人機廠商云圣 智能的“虎鯨Ⅲ”全自主工業無人機,就搭載了美格智能 5G 工業級通信模組 SRM815, 利用“機器人+人工”相結合的方式,可實現電力通道巡檢,電力本體巡檢,三維實景建 模等功能,模組在其中起到了如視頻解析,傳輸,操控信號低時延傳輸等功能。

智能零售場景則是不同功能模組實現了如無人零售、自助結算、商品管理等功能。如美 格智能的通過對高通模組的理解與定制化開發,為客戶在如無人售賣柜、人臉支付、智 能收銀機。智能 POS 等方面推出了完整的解決方案。其中無人零售設計的人臉識別,圖 像識別等,也是基于高通 14NM 芯片提供的算力進行部署。

一種更為通用的邊緣算力應用,采用“邊緣算力盒子”的形式進行呈現,相比于設備內 部搭載的邊緣計算芯片,邊緣計算盒子擁有更高的環境容忍度、更好的物理體積,更好 的散熱,以及更大的算力部署能力,“邊緣算力盒子”往往放置在如工廠產線、電線桿、 路燈等場景,用來支撐如產線質檢、智慧城市、V-2X 等 AI 應用場景。 甚至,以模組形式承載的邊緣算力,已經進入了數據中心,作為云算力的一部分為用戶 提供服務。實時互動云創新服務商啟朔科技,就利用刀片式服務器承載算力模組,實現 了 2U 機柜內部署 80 顆高通算力芯片,從而為云游戲、數字人渲染、工業 AI 檢測等場 景提供算力。當前啟朔科技已經成為了阿里云,網易游戲等的合作伙伴。

我們在這一段的前半部分,總結了當下邊緣算力應用的主流形式,其中已經有了非常多 偏 AI 運算的需求,但我們不難發現,當前運行在邊緣端的 AI 模型,更多的是以傳統的 圖像識別形式存在的“分析型”AI,而我們認為,真正能夠讓邊緣算力需求擴張,或者 打開邊緣 AI 天花板的“生成式”AI,則是下一階段乃至未來需要在邊緣應用側更加關注 的重點,在“生成式”AI 在邊緣設備的部署上,我們更愿意用本段標題中的“曙光初現” 來形容,各個大廠的先期產品和布局讓我們看到了“生成式”走進邊緣的路徑和初步方 案,接下來,我們將會介紹兩大方向,并闡述為什么邊緣算力對這些場景是不可或缺的。

邊緣應用方向 1:基于生成式模型的“智能助理”。 智能助理這一概念,最早火爆,是伴隨“SIRI”的推出,消費者第一次系統性的認識到 了基于語音喚醒的智能助理這一概念。然而隨著多年發展,這一形式的智能助理除了搭 載平臺擴充到了如車機、智能音響、掃地機器人等平臺外,其本質內核仍然沒有改變, 依舊是基于對語音輸入關鍵詞的截取,在功能庫中尋找對應的功能。并不具備主動生成 的能力。 我們認為,生成式 AI 將給“智能助理”這一應用方向帶來重大改變,隨著 ChatGPT 為 代表的大模型與“智能助理”融合,智能助理將變得更加擬人化,能夠增強對于命令的 理解性和執行能力,給出的回饋也將更加優秀,而不會出現當下智能助理經常出現的“不 能理解您的意思”的情況。 第二,大模型的引入,將能夠更好的方便“智能助理”的用戶的生活習慣,行動軌跡, 以及保存在設備上的資料進行總結,從而給出更符合用戶實際需求的答案,能夠成為幫 助提高學習,工作效率的幫手。

第一種應用場景,我們已經看到了很多的積極變化,首先是小度科技融合文心一言打造 的針對智能設備場景的人工智能模型“小度靈機”,還有天貓精靈接入“鳥鳥分鳥”模型 打造“AI 嘴替”,并官宣將接入阿里大模型通義千問。在車機方面,我們也看到了模型接 入車機的進展,當前,上汽旗下的斑馬智行 AliOS 智能汽車操作系統已接入通義千問大 模型進行測試。而四季度將發布的問界 M9 也將搭載大模型。

5 月 18 日,OpenAI 官方正式推出運行于的 ChatGPT,用戶可以以手機為接口直接訪問 有了它,用戶可以輸入問題并接收來自聊天機器人的回復。根據 OpenAI 的介紹,這款 APP 還包括語音識別功能,因此用戶可以說出他們的問題。然而,機器人只會以書面形 式回應。該應用程序還可以跨各種設備同步基于文本的對話。進一步強化了手機的“智 能助理角色”。

第二種應用場景,我們觀察到了海外爆火的應用“Rewind”,通過記錄筆記本電腦的屏幕 輸出信號與麥克風信號,并形成數據庫,最后基于這些數據庫與自有模型,幫助用戶回 憶,總結在電腦上看到的,處理過的所有資料,大大提高了用戶的工作效率。

基于兩點應用方向和現在出現的應用趨勢,我們判斷,邊緣算力將在“智能助理”類應 用的發展和商業化上起到重要作用,第一,智能助理面對的是海量用戶,這些用戶所提 出的 Prompt 將是及其復雜或者存在非常多的冗余,如何通過本地小模型,對用戶的需 求進行預處理,從而將需要云端算力處理的 Token 將至最低,甚至對于不復雜的推理需 求,可以通過本地算力直接響應客戶需求。第二,對于像“Rewind”這類涉及到用戶隱 私資料的部分,為了保證用戶安全,所有的數據歸納將會完全依靠本地算力進行。因此, 在降本,隱私方面,邊緣算力對于“生成式智能助理”能否形成商業閉環,至關重要。

邊緣應用方向 2:具身智能。 具身智能是指能夠理解、推理并與物理世界互動的智能系統。AIGC 的“智能”表現在能 夠進行上下文理解和情景感知,輸出文字、圖像、聲音,而具身智能能夠在物理世界中 進行操作和感知,輸出各種機械動作。通過物理環境的感知和實際操作,具身智能可以 獲得更全面的信息和數據,進一步提高對環境的理解和決策能力。按照具身智能的定義, 目前具身智能的實例繁多,其中包括人形機器人、自動駕駛汽車等。 當下,例如特斯拉推出的人形機器人 Optimus、波士頓動力的 Atlas 和 Spot 已經具備接 近具身智能的能力,它們可以通過機器人的身軀來模擬人類或動物的行為和動作,更加 逼真地與人類進行互動。算法側,特斯拉的 Dojo AI 超級計算機項目用于加速訓練和推 理具身智能模型,英偉達的多模態 VIMA 可以驅動機器人識別物體并做出動作。我們認 為,具身智能憑借物理反饋、物理輸出的特性,將是繼 AIGC 之后的又一個現象級 AI 應 用。

基于現在具身智能展現出的能力,我們認為,具身智能的兩大核心是負責算力的芯片和 與外部通信的模組。當前物聯網模組進入智能化時代,集成了邊緣算力的智能模組正在 逐漸成為支撐邊緣算力的核心形式。具身智能將邊緣算力需求提升到了一個新高度,具 身智能的“大腦”不僅要處理視覺信息、生成提示詞,更要負責輸出指令來執行機械動 作。 例如特斯拉針對人形機器人開發了 DOJO D1 芯片,充沛的算力驅動 Optimus 機器人流暢地執行各種任務。因此我們認為,在移動芯片無法滿足所需算力 的場景下,邊緣 IDC 將是算力的有效補充措施。

此外,通信能力也是決定機器人能力的核心。具身智能的通信強調低時延、多連接、連 續性能力,例如自動駕駛汽車上,L4 級別需要帶寬>100 Mbps,時延 5-10ms。具身智 能未來也有望進化成結構復雜、體型龐大或者多點分布的產品,各子模塊之間需要信息 融合、多維感知、協同運行,本身也會需要穩定高速的無線連接。我們認為,未來具身 智能將會越來越強調邊緣通信能力與邊緣算力的匹配和耦合,而兩者結合的最好形式, 算力模組,將有望成為具身智能的“大腦”。 站在當前時點,我們認為,除了已經日趨成熟的基于傳統分析式人工智能的邊緣算力應 用場景,我們更應該關注到生成式 AI 在邊緣滲透的“曙光”已經出現。未來,越來越多 像智能助理、具身智能一樣擁有廣闊空間的新應用將會涌現,帶動邊緣算力實現跨越式 發展。

熱門文章
北京——2023年5月22日 亞馬遜云科技日前宣布存儲優化型實例Amazon EC2 I4g正式可用,該實例基于亞馬遜云科技自研芯片Amazon Gravtion2,與上一代存儲優化型實例相比實時存儲
2023-05-22
X
主站蜘蛛池模板: 揉我胸?啊?嗯出水奶A片| 精东影业果冻传媒| 国产精品免费看| 《乳色吐息》在线观看免费完整版| 大纲手裸体被?羞羞的网站| 黄色片app| 影音先锋下载中文字幕资源| 午夜精品久久久久99蜜桃最新章节| 日本久久免费大片| 美女阴部| 双性精跪趴灌满h室友4p| 欧美日韩国产精品成人AV电影| 女性瘾者中的刺激点| 3d动漫精品一二三四专区| 国产成人综合亚洲动漫在线| 91亚洲乱码卡一卡二卡新区豆瓣| 97色情在线观看免费高清| 131美女图片爽爽爽| 潘金莲强一级毛片| 色老板免费| 色一情一乱一交一级精品欧美| 99这里只有精品视频6| 美女被吸乳脱内内羞羞| 国产亚洲精品自在久久77| 午夜视频免费国产在线| 中文字幕乱码亚洲精品一区 | 欧美一级淫片免费播放40分钟| 欧美做????的事| 国产精品久久久久久久久久KTV| 日韩free| 欧美ⅹxxxhd3d| 秋霞电影院网伦霞免费| 国产精品自产拍在线观看网站 | 二十分钟左右的短片| 在线观看成年人网站| 日韩一级片在线播放| 成年人毛片| 国产综合在线播放| 国产欧美港台苏琪成人综合在线| 国产在线视欧美亚综合| 岳肥腚大乳|