[12%] 當人工智慧遇上倫理、法律
生成式 AI(GenAI)的快速採用及其可能造成的傷害(例如性別偏誤、深偽、錯假訊息等),凸顯了在 AI 中落實「值得信賴」的迫切性。研究社群也對此有所回應:依據 Stanford HAI 的觀察,研究者自 2018 年起開始大量提出將公平性、可究責性、透明性等特徵導入 AI 系統的主張;相關研究熱度在 2018–2022 年間成長十倍。但即便如此,從原則走到可執行的工程方法仍然有限。
問題在於:倫理指南大量增加,卻缺少可操作的落地框架,導致概念含混、實作困惑;而 AI 開發牽涉跨文化、跨領域的專業者,也使得形成普世共識更具挑戰。就連值得信賴 AI 本身,各方說法也不一致:有研究以五大原則(行善、不傷害、自主、正義、可說明性)來界定;NIST 以有效且可靠、安全、資安韌性、可究責與透明、可解釋與可詮釋、強化隱私、公平且能管理有害偏誤來描述;IBM 與歐盟高階專家小組也各有強調面向。這種不收斂的定義造成混亂,凸顯建立整合性分類法的必要。
此外,批判也來自不同領域:法律領域指出,現行論述有時模糊了倫理與法律界線,甚至可能形成「倫理漂白(ethics washing)」的假合規;技術領域則指出倫理原則難以嵌入生命週期;哲學領域提出遺漏議題(如生態衝擊、政治濫用、毒性宣傳等)。
論文資訊(原文)
期刊:Expert Systems With Applications
題名:Towards a methodology for ethical artificial intelligence system development: A necessary trustworthiness taxonomy
作者:Carlos Mario Braga、Manuel A. Serrano、Eduardo Fernández-Medina
7
3 comments
Vista Cheng
5
[12%] 當人工智慧遇上倫理、法律
OMG 一人集團|Grow within. Cash in.
OMG 是華文世界最專注「個人品牌 × 社群變現 × 一人公司」的創業社群,由《社群思維》作者 Mark哥 創辦。
以「情緒價值 × 實戰系統」協助創作者建立內容體系、打造可複利的商業模式,卡位 Skool 中文化即將帶來的平台級紅利。
如果你想讓 2026 成為人生轉折,這裡會是你最重要的據點。
Leaderboard (30-day)
Powered by