Gate Booster 第 4 期:發帖瓜分 1,500 $USDT
🔹 發布 TradFi 黃金福袋原創內容,可得 15 $USDT,名額有限先到先得
🔹 本期支持 X、YouTube 發布原創內容
🔹 無需複雜操作,流程清晰透明
🔹 流程:申請成為 Booster → 領取任務 → 發布原創內容 → 回鏈登記 → 等待審核及發獎
📅 任務截止時間:03月20日16:00(UTC+8)
立即領取任務:https://www.gate.com/booster/10028?pid=allPort&ch=KTag1BmC
更多詳情:https://www.gate.com/announcements/article/50203
醫療照護決策工具中的種族偏見
醫療照護中的種族偏見可能在一些意想不到的地方顯現。一個例子是:在當今患者接受測試、診斷和治療的過程中扮演重要角色的臨床決策工具。
這些工具包含演算法,或是逐步操作流程,通常是電腦化的,用來計算如心臟疾病風險、胸部X光需求以及處方藥劑量等因素。人工智慧可以用來篩查健康記錄和帳單系統,以建立所需的資料集。
表面上,這聽起來可能是客觀的。但研究已顯示,這些演算法所用的資料分析在關鍵方面可能對某些種族和社會經濟群體存在偏見。這可能在醫療服務的數量和品質方面產生多種後果。
主要重點
種族偏見影響最重病患
2019年,一項針對美國醫院和保險公司廣泛使用的演算法的研究顯示,該演算法系統性地歧視黑人。當兩個種族群體病情相當時,該決策工具較少將黑人轉介至複雜醫療需求的照護管理計畫。
偏見的根本原因與演算法根據前一年的醫療費用來評估風險分數有關。假設較高的醫療費用能識別出需求較大的患者,但許多黑人患者因較少醫療資源、較少支付能力和較低信任度,與同樣病重的白人相比,醫療費用較低並不代表他們的健康狀況較好。
照護管理計畫採用高接觸方式,例如電話聯絡、護士家訪和優先安排醫生門診,以應對最嚴重患者的複雜需求。這些計畫已證明能改善結果、降低急診和住院次數,以及降低醫療費用。由於這些計畫成本較高,通常分配給風險分數最高的人群。對最重病的黑人患者在評分上的歧視,可能是他們因多種疾病死亡風險增加的重要因素。
腎臟疾病中的種族變數
演算法可能不包含種族作為變數而存在偏見,但有些工具則故意以種族作為判斷標準。例如,用來評估腎臟健康狀況並決定是否需要腎臟移植的eGFR分數。
1999年,一項設定eGFR標準的研究發現,黑人平均肌酸酐(肌肉分解產物)水準高於白人。科學家假設這是由於黑人肌肉量較高,因此調整了評分,這意味著黑人必須有較低的eGFR分數才能被診斷為末期腎病。結果,黑人必須等到腎病更嚴重時才能符合治療資格。
2018年,華盛頓大學醫學院的醫學與公共衛生學生觀察到,eGFR分數在診斷黑人腎病嚴重程度時不準確。她努力爭取將種族從演算法中移除,最終成功。2020年,華盛頓大學醫學院同意,種族作為變數在醫學診斷工具中是無效且缺乏科學嚴謹性的。
重要提醒
2021年,美國腎臟基金會與美國腎臟學會聯合成立的工作小組建議採用新的eGFR 2021 CKD EPI肌酸酐方程式,該公式在估算腎功能時不再使用種族作為變數。
身體質量指數與種族偏見
即使是不包含種族的最簡單醫療決策工具,也可能反映社會偏見。例如,身體質量指數(BMI)是基於體重乘以身高的計算,用來識別體重過輕、過重和肥胖患者。
1985年,美國國家衛生研究院將肥胖定義與BMI掛鉤,1998年,一個專家小組制定了基於BMI的指南,將之前被歸類為正常體重或僅超重的2,900萬美國人歸入超重和肥胖類別。
如今,根據BMI標準,大多數黑人、西班牙裔和白人都被歸為超重或肥胖。但2021年,疾病控制與預防中心(CDC)的一份報告指出,根據種族或族裔群體,能被歸類為肥胖的美國人比例不同。
CDC的數據顯示,成人的比例為:
若細分為女性成人,差異更為明顯:
將如此大量的人口標籤為超重或肥胖,已造成體重羞辱和患者與醫生之間的不信任氛圍。較重的患者抱怨醫生未針對他們來診的健康問題或疑慮,而是將問題歸咎於體重,並推動減重作為解決方案。這使得許多黑人和西班牙裔患者避免就醫,可能因此錯失預防或早期發現問題的機會。
此外,越來越多證據顯示,超重或肥胖並不一定是健康問題。某些嚴重疾病如心臟病、中風、2型糖尿病和某些癌症的發病率在肥胖者中較高,但在某些情況下,例如心臟手術後的康復,超重或中度肥胖(非極度肥胖)反而與較佳的存活率相關。
2020年8月,加拿大臨床醫師發布的新肥胖指南強調,醫生應停止僅依賴BMI來診斷患者。只有當體重影響身體健康或心理福祉時,才應診斷為肥胖。治療應採取整體性方法,而非僅針對體重減輕。指南亦指出:「肥胖者面臨大量偏見和污名,這些偏見和污名會增加疾病負擔和死亡率,與體重或BMI無關。」
對個人BMI的考量可能被其他指標取代,例如腰圍。肥胖的定義也可能重新界定。2025年1月,一組58名研究人員提出新定義,將焦點從BMI轉向過多體脂及其對健康的影響。該團隊提出兩個肥胖分類:前臨床型,指個體脂肪過多但器官功能正常;臨床型,指脂肪過多已損害組織和器官。
降低決策工具偏見
醫學演算法並非唯一可能存在偏見的演算法。正如2020年《新英格蘭醫學雜誌》一篇文章指出:「這個問題不僅限於醫學。例如,刑事司法系統使用再犯預測工具來指導保釋金額和監禁判決。」作者表示,一個廣泛使用的工具,雖然不直接使用種族,但使用許多與種族相關的因素,並對黑人被告給出較高的風險評分。
人工智慧(AI),尤其是機器學習的日益普及,也引發了關於種族、社會經濟地位等偏見的疑問。在醫療領域,機器學習常依賴電子健康記錄。貧困和少數族裔患者可能接受碎片化的照護,並在多個機構就診。他們更可能在教學診所就診,資料輸入或臨床推理可能較不準確,也可能無法存取線上病人門戶或記錄結果。結果,這些患者的資料可能缺漏或錯誤,導致驅動機器學習的演算法排除貧困和少數族裔患者,進而影響所需的照護。
好消息是,過去幾年來,對醫療演算法偏見的認識逐漸提高。資料輸入和結果正被檢查是否存在種族、族裔、收入、性別和年齡偏見。美國的醫學專科協會也開始認識到基於種族的醫學所造成的傷害,並努力終止在臨床演算法中考慮種族的做法。當差異被識別出來,演算法和資料集可以修正,以追求更客觀。
什麼是演算法?
目前沒有統一的法律或科學定義,但美國國家標準與技術研究院(NIST)將其描述為「一個明確規定的數學計算過程;一套規則,遵循後會得到預定的結果。」
演算法的範例是什麼?
廣義來說,演算法就是一個逐步解答問題或達成目標的流程。例如,一個蛋糕食譜就是一種演算法。在金融領域,一個自動交易系統也是一個範例。
什麼是機器學習?
IBM作為該領域的先驅,將機器學習定義為「人工智慧(AI)的一個子集,專注於能‘學習’訓練資料中的模式,並隨後對新資料做出準確推論的演算法。」
底線
儘管看起來客觀冷峻,醫療專業人員用來做出某些決策的演算法,可能會受到種族、階級和其他因素的偏見影響。因此,不能僅憑相信演算法,而必須進行嚴格的分析。正如2021年《麻省理工科技評論》所指出:「不論如何定義‘演算法’,它都不應成為免責的藥方,讓設計和部署系統的人免於對其使用後果負責。」