AI研發存私隱憂慮 專家籲度身打造保障規定
香港文匯報訊 人工智能(AI)技術近年迅速發展之際,對私隱保障的擔憂亦浮現。美國律師行Greenspoon Marder創新及技術業務合夥人舍爾與本齊盧奇在路透社撰寫評論稱,需要利用大量數據訓練演算法的AI技術,無可避免存在私隱方面的憂慮,立法者和技術人員應推動為AI技術度身打造的私隱保障規定,保護民眾的個人資料安全。
分析指出,AI技術用於訓練演算法的數據中,包含大量個人資料,相關資料的收集、儲存和使用,都與傳統互聯網技術的個人資料收集及保護模式截然不同。AI技術還可能利用總結大量數據,透過用戶的指令「推算」用戶的敏感信息,包括他們的住址、工作、家庭情況,以及個人喜好和習慣等,這些推算得到的資料不排除未經用戶授權,便會被轉移甚至外洩。
僅10%企業擁衡量AI風險系統
全球市場諮詢公司Coleman Parkes今年初一項研究,訪問300名美國生成式AI專家,當中80%對AI技術的私隱保障問題感到擔憂。報告指出,專家們認為現時只有約10%的科企,擁有可靠的系統衡量AI大型語言模型(LLM)的私隱風險,多數企業在運用AI技術時,存在私隱保障不足問題。
舍爾與本齊盧奇分析,解決AI私隱問題需多方面合作。立法者需要就AI資料處理技術制訂嚴格法規,並要求開發人員披露演算法所需資料的來源、提升訓練演算法的透明度。
分析也認為,當局應鼓勵科技從業者和普通民眾參與公共討論,就監管AI技術、避免私隱外洩制訂法律框架,在公共安全與保護個人私隱之間實現平衡,「AI私隱問題是我們所處時代最大挑戰之一,我們必須確保我們對技術進步的追求,不會以犧牲私隱權為代價。」