Deepfake影片更難辨識 專家籲科企添加標籤
香港文匯報訊 由AI技術製成的「深偽技術」(Deepfake)影片近年見增,網絡安全專家指出,AI影片生成模型Sora問世,其製作成品更為精良、畫面非常逼真,可能讓普通民眾日後難以辨別「深偽影片」。研發Sora的科企OpenAI也表示,公司會為今年的美國大選作好準備,禁止將名下AI工具用於政治造勢活動。
紐約州立大學布法羅學院傳媒中心主任呂思偉表示,科企可以利用添加標籤等方法,幫助人們辨識AI產品,但這些標籤在很多情況下都可以被移除或修改,並非萬無一失。慈善機構「卡內基國際事務倫理委員會」研究AI技術的高級研究員米克爾稱,網站或社媒平台可以使用AI識別工具,在影片發布前進行分析,標註其中涉及AI創作的內容。
OpenAI表示,公司正在研究加強保護措施,避免Sora遭到濫用。公司考慮研發特製的檢測工具,可以辨識影片是否由Sora生成,以及是否包含有誤導性內容。