經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)於2025年4月29日發布「新興科技前瞻性治理框架(Framework for Anticipatory Governance of Emerging Technologies)」,為各國制定具前瞻性人工智慧(Artificial Intelligence, AI)政策提供參考。該框架不僅可應用於AI,亦涵蓋量子科技及生物科技等具高風險與高度不確定性之新興科技領域。五大核心框架如下:
- 價值導向(Guiding Values):AI治理應以倫理為原則,確保在政策與技術發展過程中,重視公平、透明、隱私與人權保障。
- 戰略情報(Strategic Intelligence):為強化風險預測與情境模擬能力,OECD建置AI事故與風險資料庫,持續蒐集異常事件與危害問題,協助政策制定者掌握潛在風險並提前制定因應策略。
- 利害關係人參與(Stakeholder Engagement):AI政策制定應在技術設計與佈建階段納入多元觀點,促進公民社會、技術開發者與決策者實質參與,提升政策正當性、社會接受度與公共信任。
- 靈活監管(Agile Regulation):透過監理沙盒等實驗性監管機制,允許AI於可控環境中進行測試,並據以滾動式檢討法規內容,以避免監理法規落後於AI發展。
- 國際合作(International Cooperation):因應AI之跨境與跨領域特性,各國應推動統一的政策並整合標準,以建立一致且可互通的全球治理機制,強化跨國合作能力。