近期瑞典媒體《Svenska Dagbladet》的一篇調查報導指出,使用 Meta AI 智慧眼鏡的歐洲用戶,可能在不知情的情況下,將私密影像或敏感資訊傳送給位於歐盟以外的人工審核人員。
報導指出,部分在肯亞從事 AI「標註」(annotation)工作的員工向記者透露,他們在審查影像資料時曾看到高度私密的畫面,包括有人裸體、如廁或進行性行為的影像,甚至還出現信用卡號碼等敏感財務資訊。
這些內容原本可能只是智慧眼鏡使用者在日常生活中拍攝或記錄的畫面,但在 AI 訓練流程中,卻可能被人工審核人員檢視。
目前 Meta 旗下的 Ray-Ban Display 等 AI 智慧眼鏡產品,允許使用者透過鏡頭錄製自己正在看的畫面,或透過 Meta AI 助理詢問問題並取得回應。
然而,若使用者希望使用這些 AI 功能,就必須同意 Meta 的服務條款,其中包含允許資料被人工檢視的規定。這與大型語言模型(LLM)與視覺 AI 的訓練方式有關,因為 AI 系統往往需要人類對影像或內容進行標註,才能理解資料並建立訓練模型。
根據《Svenska Dagbladet》的調查,部分資料審查工作可能會外包至像是肯亞奈洛比等地,由當地人員進行內容審核。
報導也引用一名資料保護律師的看法指出,此類資料處理方式可能涉及歐洲《一般資料保護規則》(GDPR)的要求,該法規要求企業在處理個人資料時必須保持透明,並清楚告知使用者資料如何被使用與處理。
此外,該媒體也指出,他們在查閱 Meta 穿戴式裝置的隱私政策時,需要經過多重流程才能找到相關文件。
該政策內容提到,敏感資料「可能會由人類或自動化系統進行審查」,並將避免分享敏感資訊的責任放在使用者身上,這也代表若使用者在使用 AI 功能時拍攝到個人或他人的敏感畫面,相關資料可能會被納入 AI 訓練或審查流程。
對於相關報導,Meta 並未直接回應調查內容,只表示:「當使用即時 AI 功能時,我們會依照 Meta AI 服務條款與隱私政策來處理這些媒體內容。」Meta 並未進一步說明資料審查流程或海外審核人員的運作方式。
核稿編輯:Mia
加入 INSIDE 會員,獨享 INSIDE 科技趨勢電子報,點擊立刻成為會員!
延伸閱讀: