新技術或加劇假信息氾濫

  圖:Sora生成視頻「柯基犬在海島上自拍」截圖,圖中的手機拍攝杆位置出現「穿幫」。\網絡圖片
  圖:Sora生成視頻「柯基犬在海島上自拍」截圖,圖中的手機拍攝杆位置出現「穿幫」。\網絡圖片

  【大公報訊】據《華爾街日報》報道:從去年開始,隨着人工智能技術發展,假照片假視頻層出不窮,真假難辨,而不法分子利用「深度偽造」(deepfake)進行「換臉換聲」的騙案數目也激增。OpenAI推出的AI視頻生成工具Sora,大幅降低了視頻製作的門檻,無疑進一步增加被濫用風險,例如造成假信息氾濫以及違法內容的廣泛傳播。  

  OpenAI強調,確保Sora的安全使用是當前測試的關鍵,即所謂的「紅隊測試」的對抗性測試。在測試中,專門的測試者會試圖使AI工具出現故障、產生不當內容,以便團隊做出對應修正。該公司也正在構建專門的工具,以幫助用戶偵測誤導性內容,例如可以判斷視頻是否為Sora生成的分類器。OpenAI暫時未開放Sora予普通用戶使用。

  卡內基國際事務倫理委員會高級研究員米歇爾表示,當類似Sora的工具落入心懷不軌的老練者手中時,辨別視頻的真假將會變得更加麻煩。「每當功能更強大的新產品發布,其被濫用的可能性就越大。」

  不過,AI視頻或許能給電影製造帶來不少驚喜。電影導演和視覺特效專家Michael Gracey說,AI圖像生成技術一年裏就取得了如此成就,「一年之後,我們會在哪裏?」