完善規管為AI設定防火牆
宣德
AI等生成式人工智能科技潛力巨大,但如高度依賴可能減弱人對特定情況的記憶力和思維批判能力。人類可以藉助Al工具來理解較為複雜和陌生領域的內容,更高效地獲取知識,但若過度依靠AI自動演算生成功能,則搜尋數據庫之外的大量重要政策資訊會被忽視。
由於Al等人工智能的演算功能漸趨強大,許多科技企業都希望將此類技術應用於商業用途,例如編程、視頻遊戲環境設計、語音識別和分析等。Al人工智能商業化的一個關鍵問題在於,開發商對最終產物的功能、技術研發機構和產品,可能並沒有足夠的了解和控制。上游研發者未必知道原始模型經改寫重新編程,整合到更大的網絡系統後會被如何使用。而下游開發者則經常會高估原始模型的能力。因此,整個整合過程中出現錯誤和意外的概率會大幅上升,使用不當會產生負面作用。
同時,各大AI科技研發機構無法確定,應用中遇到的各類安全風險問題,應在服務條款中清楚說明並限制可疑應用。AI人工智能可能會引發的主類風險是「惡意使用」,例如不當言論、傳播虛假資訊、網絡攻擊等。這類風險在數字生態系統中並非新鮮事,但隨着AI技術的流行或將會加劇惡意使用人工智能科技的各種風險問題。
筆者認為,各國應攜手合作,預先為AI設定防火牆,逐步完善法律規管和行業守則。開發者與用家應持續關注,AI等人工智能科技的社會影響力,防範其衍生的各類風險。