跳到主要內容區塊
:::
字級:
小字級
中字級
大字級
:::

韓國國家人權委員會制訂「人工智慧開發與應用之人權指導方針」

韓國國家人權委員會(National Human Rights Commission of the Republic of Korea)於2022年5月11日制訂「人工智慧開發與應用之人權指導方針(인공지능개발과활용에관한인권가이드라인)」,作為開發和應用人工智慧(Artificial Intelligence, AI)時的標準,旨在保障人類尊嚴及基本權利,避免AI開發和應用過程中發生人權侵害和歧視,同時建議韓國國務總理及政府部門根據該指導方針制訂與執行AI相關政策,及進行法規調適。

韓國人權委員會認為,AI技術的發展影響就業、金融、行政、福利等整體社會的基本生活和人權,然而受影響的一方在AI之引進、營運及決策過程中未能提出意見或無參與機會,且在人權受AI侵害或歧視下缺乏權利救濟措施,因此,有必要從人權角度制訂AI開發和應用的標準,並對相關內容進行審查。

「人工智慧開發與應用之人權指導方針」提出的法規制度建議如下:

1.保障人類尊嚴和個體自主性、多樣性:AI的開發和應用須符合人類尊嚴、價值和追求幸福的權利,不得強制個人選擇、判斷和決定,不得侵害自主性。

2.透明度和說明義務:使用AI技術進行決策,應確保對該決策過程及結果作出適當及合理的解釋,尤其當AI涉及對基本人權(如個人生命或安全)產生重大影響時,應公開說明所使用的主要數據和演算法。

3.保障自決權:AI開發和應用所使用的個資,應在達到目的所需的最低限度內進行處理,並保管至所需的最短期限。此外,此類隱私處理政策應揭露,以便相關個資主體作確認。

4.禁止歧視:AI的決策不應對特定群體或部分階層造成歧視或不當影響,並採取必要措施以避免個人安全或權利受歧視性影響。

5.實施AI人權影響評估:國家應建立人權影響評估制度,考量與AI開發和應用相關的潛在人權侵害或歧視問題;若評估發現負面影響或風險,則應採取防範措施並揭露。

6.風險等級及相關法規等:分階段劃分AI對個人人權及安全構成的風險,並制訂相對應的法律和制度,以確保相對應的規範及人為干預。

TOP