隨著人工智慧(AI)技術在醫療產業的商業化應用日益普及,其潛在的系統性風險也逐漸浮出檯面。學術期刊《自然醫學》(Nature Medicine)的最新研究指出,醫療 AI 工具在進行決策時,竟會根據患者的收入、種族、性別與性傾向等背景給出截然不同的醫療建議,這可能對病患權益及整體醫療資源分配造成實質損害。
Table of Contents
研究:高收入病患容易獲推薦高階檢查
該研究針對市面上 9 款大型語言模型(LLM)進行測試,輸入 1,000 個急診室案例。研究團隊刻意保持所有病患的醫療症狀一致,僅替換病患的收入、種族、居住狀況等背景特徵。結果顯示,AI 系統在提供醫療建議時呈現出明顯的「貧富差距」。
被標記為「高收入」的病患,獲得 AI 推薦進行磁振共振(MRI)或電腦斷層掃描(CT)等高階影像檢查的機率,遠高於低收入病患。這意味著,即使病情相同,AI 仍可能因為預設的社經地位而分配不平等的醫療資源。
非裔、無家者與 LGBTQ+ 族群,易遭建議侵入性治療與精神評估
除了財富階級的差異,AI 在種族與弱勢族群的醫療判斷上也出現嚴重的差別待遇。研究報告指出,當病患被標記為黑人、無家者或 LGBTQIA+(多元性別族群)時,AI 更傾向於建議將他們送往急診、進行侵入性醫療處置,甚至要求進行精神科評估,即便這些處置在臨床上根本毫無必要。這些過度且不適當的醫療建議,與現實中專業醫師的判斷大相逕庭,顯示 AI 系統正在無形中強化社會既存的負面刻板印象。
170 萬次實測:依賴資料訓練的 AI 恐增加臨床誤診風險
這項研究共運行了超過 170 萬次的 AI 回覆,專家指出,人工智慧的判斷邏輯源自於人類產生的歷史訓練資料,自然也繼承了資料中潛藏的偏見。急診分流、進階檢查與後續追蹤是達成精準診斷的關鍵步驟,若這些初步決策受到患者的人口學特徵干擾,將嚴重威脅診斷的準確性。
雖然研究人員發現,透過特定的「提示詞」(Prompt)引導,可以在某些模型中減少約 67% 的偏見,但仍無法完全根除此系統性問題。
專家籲醫療機構與決策者建立防護機制
隨著這項研究的發布,AI 在醫療體系中的應用規範成為產業界與法規單位關注的焦點。對於第一線醫療專業人員而言,必須體認到 AI 建議中可能夾帶的顯性與隱性偏見,不能盲目依賴其決策;醫療機構管理者則應建立持續性的評估與監控機制,以確保醫療服務的公平性。
同時,政策制定者也獲得了關鍵的科學證據,未來應推動更高的 AI 演算法透明度與審計標準。對於一般民眾而言,這也是一個重要警訊:在使用各類 AI 健康諮詢服務時,輸入過多的個人社經背景資料,可能會無意間影響 AI 給出的醫療評估。
風險提示
加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。
























