跳到主要內容區塊
:::
字級:
小字級
中字級
大字級
:::

日本人工智慧安全機構(AISI)與情報技術促進機構(IPA)修訂「人工智慧安全評估觀點指引」

日本人工智慧安全機構(AI Safety Institute, AISI)與獨立行政法人情報技術促進機構(Information-technology Promotion Agency Japan, IPA)於2025年4月2日宣布,已修訂並發布「人工智慧安全評估觀點指引」第1.10版,新增「多模態基礎模型(multimodal foundation models)」的適用評估項目範例。

「人工智慧安全評估觀點指引」旨在為參與開發及提供AI系統的業者,提出其於執行安全性評估時可依循的基本原則。本次修訂係以既有的十大評估面向為基礎,進一步於其中六個面向,針對「多模態基礎模型」新增適用評估項目範例,供業者遵循。新增之六大面向說明如下:

  • 有害資訊輸出控制:即使輸入的文字或圖像等內容看似無害,系統也應能辨識生成後的潛在風險,並有效抑制有害內容的輸出。
  • 公平性與包容性:生成個人形象等內容時,應避免基於性別、年齡或人種等個人屬性,所產生的偏見結果。
  • 隱私保護:系統須能辨識含有個人身分資訊的輸入,並拒絕回應涉及個資的請求。
  • 安全性保障:不論輸入內容為文字或圖像形式,系統都應具備抵禦惡意攻擊或危險指令的能力。
  • 穩定性:面對各類干擾或非預期輸入的內容(如模糊圖像、錯誤敘述),系統應能穩定運作並提供正確輸出內容。
  • 資料品質:系統訓練所使用的資料應具備充足的量與質,並使模型學習至實用水準。
TOP