跳到主要內容區塊
:::
字級:
小字級
中字級
大字級
:::

英國通訊管理局(Ofcom)發布《未來科技與媒體識讀:理解生成式人工智慧》報告

英國通訊管理局(Office of Communication, Ofcom)於2024年2月22日發布《未來科技與媒體識讀:理解生成式人工智慧(Future Technology and Media Literacy:Understanding Generative AI)》報告,探討如何有效應用媒體識讀,處理生成式人工智慧對網路使用者帶來的新風險,並針對網路平臺、推動媒體識讀之相關部會及使用者提出建議。

該報告指出,生成式人工智慧大幅提升產製內容的數量與複雜性,使用者亦快速增長,使人工智慧既存的相關風險加劇,媒體素養可為問題解決策略之一。該報告關注之重點議題如下:

  • 生成式人工智慧的準確性(Accuracy):生成式人工智慧本質上係利用大量資料訓練模型,並根據模型預測結果對問題或提示做出反應,然其決策歷程如同「黑盒子(Black box)」,不易被使用者理解及追溯。Ofcom建議強化使用者對生成式人工智慧運作歷程的理解,使其能更有意識且更具批判性地與之互動。
  • 錯誤/不實資訊(Mis/disinformation):生成式人工智慧模擬人類生成內容的能力精進,導致使用者辨別內容真偽的困難度提升,亦可能破壞使用者對網路媒體內容的信任度。Ofcom指出,生成式人工智慧使惡意行為者能快速產出大量錯誤/不實資訊,即使網路平臺業者採取驗證內容等策略,恐仍不及其傳播速度。使用者的媒體識讀能力及高品質且值得信賴的新聞媒體資訊來源為確保使用者信任度的關鍵。
  • 偏見放大(Amplification of bias):生成式人工智慧模型訓練所運用的大量資料可能包含人類既有的偏見,並透過演算法放大及重製,從而強化社會偏見或排擠特定群體,亦可能減少使用者接收資訊的多樣性。Ofcom建議,訓練生成式人工智慧模型的資料集應具備多樣性及代表性,並需要透過人工監督與偏見測試,以評估模型強化偏見與刻板印象的風險。使用者亦須理解生成式人工智慧再現偏見與刻板印象的可能性,然根本的緩解措施應是嘗試降低人類既有偏見。
TOP