英國通訊管理局(Office of Communications, Ofcom)於2023年6月8日宣布現正針對生成式AI(generative AI)發展擬定應對方式。Ofcom指出生成式AI有望顛覆傳統的服務提供、商業模式與消費者行為,且多為有益的,例如生成式AI模型可用於電視內容製作,增強製作者創造視覺效果的能力,另有研究人員正研究透過生成式AI創建合成訓練資料(synthetic training data),以提高安全技術的準確性。此外,生成式AI可透過網路異常識別功能標記潛在惡意活動,進而保護資料與網路資產安全。
惟生成式AI亦可能帶來風險,例如生成式AI工具可創建語音複製品(clones)冒充親人進行電話詐騙,且詐騙者亦可運用AI模型創建更有效的網路釣魚內容。另生成式AI可能使民眾更容易獲得自殘或非法走私等相關建議;生成式AI模型亦可製造假新聞和媒體,進而為線上來源驗證帶來挑戰,並破壞在線上打造多元新聞生態系的努力。
因此,Ofcom正採取以下行動:
- 與正在開發和整合生成式AI工具,且符合《網路安全法(Online Safety Bill)》的公司合作,了解其如何評估產品安全風險及實施有效的措施保護用戶免受潛在傷害。
- 監測生成式AI、擴增實境(Augmented Reality, AR)與虛擬實境(Virtual Reality, VR)等新技術對民眾媒體素養之影響。
- 提供受監管的部門相關資訊,說明生成式AI可能對其代表的意義,以及其須承擔的客戶與用戶責任,例如Ofcom近期對廣播公司提出合成媒體的使用如何遵守《廣播法(Broadcasting Code)》之相關建議。
- 審核可辨識真實和AI影像內容技術的相關證據,Ofcom尚在探索如何運用透明度機制標示內容是由人類或由生成式AI製作。
- 透過國際型智庫和多邊專家組織參與AI監管相關討論,以協助制訂新聞產業AI倫理使用之最佳實踐,並研究如何將AI資訊納入媒體素養政策。
- 持續深化對生成式AI的理解,含舉辦生成式AI「技術週」,討論技術發展及降低風險的相關措施。