趨勢排行
掌握趨勢,領先排序。

蘋果WWDC 2026將推Core AI框架取代Core ML

暗夜詩匠2026-03-01 16:04
3/1 (日)AI
AI 摘要
  • 從機器學習到人工智慧:Core AI的戰略轉型意涵 蘋果自2017年推出Core ML框架以來,這項技術一直是開發者將機器學習功能整合至iOS與macOS應用程式的核心工具。
  • 新框架將深度整合Google Gemini技術訓練的Apple Foundation Models,並為Siri導入聊天機器人功能,同時開放第三方AI模型接入,讓開發者能更輕鬆地在iOS與macOS平台上打造AI應用。
  • 開放生態系成關鍵:第三方AI模型整合機制 回顧2025年WWDC,蘋果在iOS 26已開放開發者將Apple Foundation Models整合至自有應用,這項「裝置端AI運算」功能允許開發者調用蘋果預訓練模型API,在保護用戶隱私前提下執行文字生成等任務。
  • WWDC 2026重頭戲:Gemini技術驅動的全新Siri 儘管先前傳聞指出iOS 27更新重點將放在修復系統漏洞與提升穩定性,而非功能性突破,但WWDC 2026議程顯然會被AI元素全面佔據。

蘋果預計在2026年6月的WWDC開發者大會上推出全新「Core AI」框架,正式取代已使用多年的Core ML機器學習架構。根據彭博社記者Mark Gurman爆料,這項戰略轉型不僅是名稱變更,更象徵蘋果全面擁抱生成式AI的決心。新框架將深度整合Google Gemini技術訓練的Apple Foundation Models,並為Siri導入聊天機器人功能,同時開放第三方AI模型接入,讓開發者能更輕鬆地在iOS與macOS平台上打造AI應用。

蘋果 WWDC 展示 Core AI 框架與發光的神經網路。

從機器學習到人工智慧:Core AI的戰略轉型意涵

蘋果自2017年推出Core ML框架以來,這項技術一直是開發者將機器學習功能整合至iOS與macOS應用程式的核心工具。隨著生成式AI技術突破,特別是大型語言模型(LLM)與擴散模型(Diffusion Models)崛起,Core ML的既有架構在處理複雜AI工作負載時逐漸顯露局限。

螢幕顯示 Core AI 字樣與發光的神經網路連結。

根據彭博社記者Mark Gurman獨家披露,蘋果計畫在WWDC 2026正式發表Core AI框架。這項轉變深層意義在於,蘋果不再滿足於將AI視為單純機器學習應用,而是提升至公司層級戰略核心。從命名觀察,「ML」到「AI」的轉變絕非表面功夫,而是反映蘋果內部研發重心的根本遷移——從專注演算法優化轉向全面智慧體驗重塑。

技術層面,Core AI預計大幅強化對生成式AI支援。現行Core ML雖能透過轉換工具支援部分LLM,但在模型量化、記憶體管理與即時推理方面仍有諸多限制。新框架有望原生支援混合專家模型(MoE)架構、提供更精細模型壓縮技術,並針對蘋果自研晶片神經網路引擎(NPU)深度優化。Gurman指出短期內Core AI與Core ML可能採取雙軌並行策略,確保既有應用相容性,同時提供開發者逐步遷移緩衝期。

這項轉型也體現在蘋果對外溝通策略。執行長提姆·庫克近年財報會議刻意淡化「AI」一詞,轉而以「機器學習」強調技術實用性。但隨著Apple Intelligence推出及與Google深度結盟,蘋果已公開將「AI」作為核心敘事。這種轉變不僅是行銷話術調整,更代表公司高層認知到生成式AI已從實驗性技術轉變為消費者期待的基本功能。

開放生態系成關鍵:第三方AI模型整合機制

回顧2025年WWDC,蘋果在iOS 26已開放開發者將Apple Foundation Models整合至自有應用,這項「裝置端AI運算」功能允許開發者調用蘋果預訓練模型API,在保護用戶隱私前提下執行文字生成等任務。然而這套機制仍屬半封閉生態,開發者無法輕易導入自行訓練或第三方模型,限制創新可能性。

iPhone 顯示 Core AI 框架裝置端模型運算過程

Core AI框架核心任務之一就是打破這道圍牆。根據目前流出技術文件,新框架將提供標準化模型介面,讓開發者能以統一方式載入與執行不同來源AI模型。這意味著除了蘋果官方模型外,開發者將能直接整合OpenAI GPTAnthropic ClaudeMeta Llama等第三方模型,甚至部署自行微調的領域專家模型。

實作細節方面,產業專家推測蘋果很可能採用類似MCP(Model Context Protocol)技術標準。MCP是由Anthropic提出的開放協議,旨在讓AI模型能無縫連接各種資料來源與工具。若蘋果確實採納類似架構,將大幅降低跨模型協作複雜度,開發者無需為不同模型撰寫專屬介接程式,只需遵循統一規範即可完成整合。這對擁有20億以上活躍裝置的蘋果生態系而言,將是釋放AI創新能量的關鍵一步。

此外,Core AI預計將強化模型市集(Model Marketplace)功能,開發者可將訓練好的模型上傳至App Store Connect,經蘋果審核後供其他開發者付費或免費使用。這不僅創造新商業模式,更有助於建立垂直領域AI解決方案生態。例如醫療影像識別、法律文件分析、教育內容生成等專業模型,都能透過這個機制快速擴散。

隱私保護依然是蘋果核心理念。即便開放第三方模型,Core AI仍會強制執行裝置端優先策略,敏感資料必須在本地處理。對於需要雲端運算的模型,蘋果將要求採用私密雲端運算(Private Cloud Compute)架構,確保資料在傳輸與處理過程中的安全性。這種「開放但不放縱」策略,既滿足開發者彈性需求,又維持蘋果一貫隱私保護承諾。

WWDC 2026重頭戲:Gemini技術驅動的全新Siri

儘管先前傳聞指出iOS 27更新重點將放在修復系統漏洞提升穩定性,而非功能性突破,但WWDC 2026議程顯然會被AI元素全面佔據。除了Core AI框架,整場發表會壓軸大戲將是由Google Gemini技術訓練的全新Apple Foundation Models,以及搭載真正聊天機器人能力的Siri 2.0

蘋果與Google合作關係在這次升級中扮演關鍵角色。根據協議,Google將提供Gemini模型的訓練技術與基礎架構,協助蘋果打造下一代Foundation Models。這項合作對雙方各有好處:Google能將技術影響力擴展至蘋果生態系,而蘋果則能縮短模型開發時程,並獲得業界領先的訓練know-how。值得注意的是,這並不代表蘋果會直接使用Gemini模型,而是採用其模型架構與最佳化技術來訓練蘋果自有模型。

新Siri升級幅度將是歷來最大。現行Siri雖在特定指令執行上表現尚可,但缺乏真正上下文理解能力多輪對話功能。新版Siri將具備聊天機器人核心特質,能夠理解複雜語意、記住對話歷史、進行邏輯推理,甚至展現一定程度「個性」。這意味著用戶可以與Siri進行類似ChatGPT的開放式對話,詢問從程式碼除錯到心理諮詢等各類問題。

技術實作上,新Siri將採用混合式架構。簡單裝置控制指令仍由本地模型處理,確保快速回應與隱私安全;複雜知識性問題則透過私密雲端運算傳送至蘋果伺服器,由更大規模模型處理。這種架構既能發揮裝置端AI低延遲優勢,又能利用雲端模型大參數量能力。

此外,Siri將深度整合App Intents系統,讓開發者能為自己應用程式定義AI原生介面。例如用戶可要求Siri「幫我用Adobe Photoshop把這張照片的天空換成夕陽」,Siri就能理解指令並自動調用Photoshop AI功能完成操作。這種跨應用AI協作能力,將重新定義行動裝置使用體驗。

產業觀點:開發者機遇與行業轉折點

蘋果這次AI戰略全面升級,在產業觀察家眼中具有多重意義。首先,這標誌著蘋果正式告別過去幾年謹慎觀望態度。在生成式AI爆發初期,蘋果刻意避免使用「AI」這個被過度炒作詞彙,轉而強調「機器學習」實用價值。但隨著技術成熟與用戶需求明確化,蘋果選擇以最積極方式擁抱變革,甚至不惜與長期競爭對手Google攜手合作。

對於開發者社群而言,Core AI框架推出將大幅降低在蘋果平台上開發AI應用門檻。過去開發者需要處理複雜模型轉換、效能優化與隱私合規問題,現在這些工作將由框架自動化處理。更重要的是,第三方模型整合能力讓開發者不再受限於蘋果生態圍牆,可自由選擇最適合業務需求的模型。這種開放性預計將催生一波AI原生應用(AI-Native Apps)創新浪潮。

從產業格局來看,蘋果擁有20億以上活躍裝置是無可比擬優勢。一旦這些裝置都具備標準化、易用AI開發環境,生成式AI將真正從雲端走向邊緣,從實驗室走向日常生活。這不僅是蘋果生態系勝利,更是整個AI產業轉折點——行動裝置將成為生成式AI主要載體,而非僅僅是雲端服務終端介面。

市場分析師指出,這項策略也可能對AI晶片市場產生深遠影響。蘋果自研A系列與M系列晶片將因Core AI推出而獲得更明確AI效能指標,促使其他晶片廠商加速開發類似裝置端AI加速方案。同時,模型壓縮與邊緣運算技術將成為顯學,因為要在數十億台裝置上部署AI,必須解決模型大小與能耗問題。

最後,這次轉型也反映蘋果對AI商業模式重新思考。過去蘋果仰賴硬體銷售與服務訂閱,AI功能多作為增值服務。但隨著Core AI開放第三方模型,蘋果很可能建立AI模型市集並從中抽取傭金,創造新營收成長引擎。這種「平台化」策略,將使蘋果在AI時代角色從技術追隨者轉變為生態系統規則制定者。