AI隨時爆你私隱 與機械人談心要小心

◆私隱專員鍾麗玲談人工智能普及下,如何保障個人資料。 資料圖片
◆私隱專員鍾麗玲談人工智能普及下,如何保障個人資料。 資料圖片

  香港文匯報訊(記者 王僖)個人資料私隱專員鍾麗玲昨日在接受電台訪問時提醒市民,要慎用人工智能(AI)聊天工具,因為AI聊天機械人會在用戶不慎輸入個人資料後儲存起來,回答其他人問題時有可能披露這些資料,構成私隱風險。同時,AI給出的答案可能不準確,甚至有可能具歧視性或帶有偏見。公署為應對AI所帶來的風險,早前出版《人工智能(AI):個人資料保障模範框架》,建議機構使用AI時採取風險為本的方式,決定所需的人為監督程度。

  鍾麗玲舉例說,若向提供予公司內部員工使用的聊天機械人輸入個人資料,聊天機械人或將資料儲存至資料庫,在回答其他員工問題時可能會披露有關資料。去年就有研究人員發現,當要求市場上某聊天機械人不斷重複一些單字時,它雖會先按指示重複該單字,但不久後就開始輸出相關資料,包括姓名、電話、電郵地址等個人資料。

  AI系統亦可能因黑客入侵或系統設定出錯等不同原因,導致資料外洩,例如去年就有一宗涉及AI聊天機械人的嚴重資料外洩事故,除洩露部分用戶過往對話的標題,更洩露用戶姓名、電郵地址和信用卡號碼的部分數字。

  鍾麗玲又提到美國有研究顯示,不少人臉識別技術系統,錯誤識別有色人種面孔的可能性,較白人高達10倍至100倍,因訓練數據中屬有色人種的數據不足。如果用AI系統診斷病人時分析錯誤,會導致斷錯症、延誤治療,後果不堪設想,「AI系統擺烏龍情況時有發生。據報道,美國有一名血癌病人被AI判斷為患有敗血症,因此需要進行抽血等進一步醫療程序,結果發現AI誤診,白白地增加了病人的感染風險和醫藥費。」

  鍾麗玲介紹,公署早前出版的《人工智能(AI):個人資料保障模範框架》,涵蓋四個範疇,包括建議機構應制定AI策略及管治架構、評估相關風險及採取風險為本方式以決定所需的人為監督程度、實行AI模型的定製與AI系統實施和管理,以及促進與持份者的溝通及交流。

  她深信該模範框架有助孕育AI在香港的健康及安全發展,促進香港成為創新科技樞紐,推動香港以至大灣區的數字經濟發展。