759 字
4 分鐘
🧠 AI:偏誤與不可靠性(上篇)

🧠 AI:偏誤與不可靠性#

不可靠的AI學習模型可能會透過代價高昂的錯誤破壞你的業務。 模型失誤會導致法律責任、削弱用戶信任,其錯誤來源可能是:

  • 偏見(Bias)
  • 幻覺(Hallucinations)
  • 惡意攻擊(如資料汙染)

最嚴重的情況下,可能危及整個系統的穩定性與安全性


⚖️ 偏誤的來源#

偏見可能來自:

  • 有偏的訓練資料
  • 資料表現不完整
  • 演算法設計缺陷
  • 開發過程中人類回饋的主觀性

若你的 AI 模型處理的是與「人」有關的資料,務必要進行偏誤測試與容錯設計

圖片1

AI 生成工具(如 Midjourney)在處理某些職業詞彙時,會出現性別偏見:

  • 輸入「新聞分析師」則多為年長男性
  • 輸入「記者」會偏好生成女性圖像

☠️ 中毒資料與訓練攻擊#

機器學習模型容易被中毒資料攻擊(Data Poisoning),可能發生在:

  • 模型訓練階段
  • 模型運行階段

攻擊者可能會系統性地注入錯誤標記的樣本,以達成特定目的:

  • 混淆垃圾郵件過濾器
  • 欺騙病毒掃描器將安全檔案誤判為惡意

圖片1


❌ AI 不確定與誤導資訊#

模型可能會對已知事實產生不確定性或提供誤導建議。 這在醫療領域尤其危險,可能導致:

  • 推薦未經證實的療法
  • 建議無效甚至有害的偏方

圖片2

WARNING

不管 AI 說什麼,都不要無條件相信。


🔥 來路不明的模型風險#

下載未經驗證的模型(如來自開源平台)會帶來巨大的安全風險

  • 主流模型平台通常缺乏嚴格的安全審核
  • 容易被當作散佈後門或惡意模型的通道

圖片3


🐛 AI 可能建議不安全的程式碼#

AI 常會建議:

  • 已過時的函式
  • 不安全的認證方式
  • 存在已知漏洞的套件

圖片4

若開發者未加以驗證即實作,將引入嚴重安全漏洞

Bar Lanyado 安全研究報告指出:
向 GPT-4 詢問技術問題時,它可能建議使用根本不存在的函式庫或套件


🌫️ 幻覺:生成錯誤或虛假資訊#

AI 幻覺(Hallucination)指的是:

AI 生成看似合理,但實際上錯誤或捏造的資訊 圖片5

增加幻覺機率的因素:#

  • 任務越複雜、錯誤越多
  • 涉及專業知識領域
  • 問題語意模糊時

圖片6

TIP

需要讓AI引用來源來避免意想症。


⚠️ 當模型亂說話,後果很嚴重#

若 AI 模型隨意捏造資訊並輸出,可能造成:

  • 品牌聲譽損害
  • 遭受監管機構關注
  • 引發法律訴訟風險

圖片7


✅ 結語:減少偏誤、提升可靠性#

不是所有的事實錯誤都這麼明顯!

圖片8

🧠 AI:偏誤與不可靠性(上篇)
https://illumi.love/posts/駭客向/ai偏誤與不可靠性上篇-/
作者
Illumi糖糖
發布於
2023-02-22
許可協議
🔒CC BY-NC-ND 4.0