生成式 AI(GenAI)的快速採用及其可能造成的傷害(例如性別偏誤、深偽、錯假訊息等),凸顯了在 AI 中落實「值得信賴」的迫切性。研究社群也對此有所回應:依據 Stanford HAI 的觀察,研究者自 2018 年起開始大量提出將公平性、可究責性、透明性等特徵導入 AI 系統的主張;相關研究熱度在 2018–2022 年間成長十倍。但即便如此,從原則走到可執行的工程方法仍然有限。
問題在於:倫理指南大量增加,卻缺少可操作的落地框架,導致概念含混、實作困惑;而 AI 開發牽涉跨文化、跨領域的專業者,也使得形成普世共識更具挑戰。就連值得信賴 AI 本身,各方說法也不一致:有研究以五大原則(行善、不傷害、自主、正義、可說明性)來界定;NIST 以有效且可靠、安全、資安韌性、可究責與透明、可解釋與可詮釋、強化隱私、公平且能管理有害偏誤來描述;IBM 與歐盟高階專家小組也各有強調面向。這種不收斂的定義造成混亂,凸顯建立整合性分類法的必要。
此外,批判也來自不同領域:法律領域指出,現行論述有時模糊了倫理與法律界線,甚至可能形成「倫理漂白(ethics washing)」的假合規;技術領域則指出倫理原則難以嵌入生命週期;哲學領域提出遺漏議題(如生態衝擊、政治濫用、毒性宣傳等)。
論文資訊(原文)
期刊:Expert Systems With Applications
題名:Towards a methodology for ethical artificial intelligence system development: A necessary trustworthiness taxonomy
作者:Carlos Mario Braga、Manuel A. Serrano、Eduardo Fernández-Medina