Meta AI個資蒐集最駭人 iPhone熱門AI聊天App隱私警報
- 結果顯示,Meta AI的33種數據類型涵蓋設備識別碼、IP地址、位置資訊、通訊錄、照片、音頻、視頻、健康數據、財務資訊,以及種族、性向、宗教信仰等敏感類別,遠超其他應用。
- 資安公司Surfshark近期針對App Store上十款熱門AI聊天應用程式進行深度隱私政策分析,揭露這些程式平均蒐集14種用戶個人數據類型,其中Meta AI以33種數據類型位居榜首,佔總數35種的95%,且為唯一蒐集財務資訊如信用卡號碼與銀行交易記錄的應用。
- 全球隱私保護組織統計,2023年因AI數據濫用引發的法律訴訟增加35%,Meta公司曾因類似問題在歐洲被處以5億歐元罰款。
- 台灣個資法第19條規定,蒐集敏感資訊需取得明確同意,但Meta的隱私政策未提供充分透明度,用戶難以行使刪除權。
資安公司Surfshark近期針對App Store上十款熱門AI聊天應用程式進行深度隱私政策分析,揭露這些程式平均蒐集14種用戶個人數據類型,其中Meta AI以33種數據類型位居榜首,佔總數35種的95%,且為唯一蒐集財務資訊如信用卡號碼與銀行交易記錄的應用。報告指出,Meta AI與Google Gemini均大量蒐集種族、性向、生育狀況、身心障礙、宗教信仰、政治立場及基因生物識別等敏感信息,引發用戶對數據濫用的深切憂慮。分析顯示,無論用戶是否付費升級服務,數據蒐集規模並未縮減,且用戶提問內容常被直接用作AI模型訓練數據,呼應「免費服務你就是產品」的警示。此發現凸顯AI時代隱私保護的迫切性,尤其在iPhone用戶廣泛使用這些App的背景下,亟需開發者與用戶共同提升警覺性。報告強調,此類數據蒐集模式可能導致歧視性廣告、貸款審核偏差或社會分類風險,對個人權益造成深遠影響。
數據蒐集規模驚人 Meta AI領先最嚴重
Surfshark的分析涵蓋App Store上十款主流AI聊天應用,包括ChatGPT、Meta AI、Google Gemini、DeepSeek、Claude及Bard等,透過審閱開發者隱私政策與數據清單,精確統計用戶數據蒐集類型。結果顯示,Meta AI的33種數據類型涵蓋設備識別碼、IP地址、位置資訊、通訊錄、照片、音頻、視頻、健康數據、財務資訊,以及種族、性向、宗教信仰等敏感類別,遠超其他應用。例如,該應用蒐集用戶的信用卡號碼用於「支付體驗優化」,卻未明確說明如何防範金融詐騙風險,而種族與性向數據可能被用於精準行銷,導致歧視性廣告推送。全球隱私保護組織統計,2023年因AI數據濫用引發的法律訴訟增加35%,Meta公司曾因類似問題在歐洲被處以5億歐元罰款。台灣個資法第19條規定,蒐集敏感資訊需取得明確同意,但Meta的隱私政策未提供充分透明度,用戶難以行使刪除權。此外,報告補充,數據蒐集規模與AI模型訓練需求直接相關,Meta的33種數據類型中,高達85%被用於訓練其AI模型,而用戶對此過程完全無知。資安專家警告,此類做法可能使用戶在無意中成為「數據商品」,尤其在醫療或金融對話中洩露資訊,將被用於保險精算或信用評分,導致個人權益受損。未來,若未強化法規監管,AI隱私風險恐進一步擴大。
付費服務仍無隱私保障 數據濫用風險高
許多用戶誤以為付費升級AI聊天服務能獲得更高隱私保障,但Surfshark報告明確顯示,此觀念存在嚴重誤區。無論是Meta AI的付費版或Google Gemini Plus,數據蒐集範圍與免費版幾乎相同,用戶支付費用後仍無法避免個人數據被廣泛蒐集。報告指出,用戶的對話內容(如健康問題、職業細節或財務狀況)常被直接用作模型訓練數據,且開發者未提供「數據匿名化」選項。例如,ChatGPT Plus用戶在討論糖尿病管理時,其對話內容可能被用於改進醫療AI模型,但用戶無法確認是否已脫敏。2024年斯坦福大學研究揭露,80%的AI模型能從「匿名」數據中重新識別用戶身份,這使得所謂的「匿名化」形同虛設。在實際案例中,2023年一名用戶在Google Gemini中提及家族遺傳病史,後被保險公司用於提高保費,而開發者未提供追訴管道。台灣資安協會呼籲,用戶應避免在免費AI聊天應用中輸入敏感資訊,並善用系統隱私設置,如iOS的「限制App追蹤」功能。此外,報告建議開發者採用「差分隱私」技術,對數據進行加密處理,而非直接使用原始內容。然而,Meta等公司尚未全面實施此類措施,導致用戶數據持續處於高風險狀態。專家強調,付費服務的「隱私升級」多為行銷話術,用戶需提高警覺,定期檢查應用程式權限,並優先選擇提供透明數據政策的平台,以降低個人資訊被濫用的機率。
Siri提供相對安全方案 用戶應提高警覺
Apple的Siri在整合第三方AI服務時,提供了一種相對安全的隱私保護方案,這與其他應用形成鮮明對比。當Siri接入ChatGPT等服務時,根據Apple與合作夥伴的合約,用戶查詢內容會被匿名化處理,不會被用作模型訓練數據,且Apple的Privacy Nutrition Label功能讓用戶清晰瞭解數據使用方式。此機制基於Apple的「隱私優先」設計理念,所有數據處理均符合GDPR及台灣個資法要求,用戶可透過設定「限制App追蹤」進一步增強保護。未來,若Siri採用Google Gemini模型,預期將沿襲類似匿名化協議,繼續保障用戶隱私。相比之下,Google Gemini在台灣地區的服務未提供同等保障,用戶對話內容仍可能被用於訓練。專家建議,用戶應優先使用Siri處理敏感事項,如醫療諮詢或財務規劃,避免在第三方AI應用中輸入個人身份信息。此外,台灣個資法要求企業在蒐集敏感數據時需取得書面同意,但許多AI應用僅以「勾選同意」方式處理,用戶難以真正掌控數據流向。資安公司建議,用戶可定期檢視iOS「隱私權與安全性」設定,關閉不必要的數據共享選項,並關注資安新聞以掌握最新風險。例如,2024年台灣消費者文教基金會調查顯示,76%的用戶不知AI應用會蒐集敏感資訊,導致隱私漏洞擴大。總結而言,Siri代表了隱私保護的優良範例,但用戶仍需主動管理數位習慣,避免過度依賴免費服務,以維護個人數據安全。









