世衛組織概述了健康人工智慧的倫理原則

轉載:希恩貝塔

據外媒The Verge報道,世界衛生組織日前釋出了一份指導檔案,概述了人工智慧在健康領域的道德使用的六個關鍵原則。20位專家花了兩年時間制定該指南,這標誌著關於醫療環境中人工智慧倫理的第一個共識報告。

世衛組織概述了健康人工智慧的倫理原則

該報告強調了健康人工智慧的前景,以及其幫助醫生治療病人的潛力——特別是在資源不足的地區。但它也強調,技術不是解決健康挑戰的快速方法,特別是在中低收入國家,政府和監管機構應仔細審查人工智慧在醫療領域的使用地點和方式。

世衛組織表示,它希望這六項原則能夠成為政府、開發商和監管機構處理該技術的基礎。專家們提出的六項原則是:保護自主權;促進人類安全和福祉;確保透明度;促進問責制;確保公平;以及促進具有響應性和可持續性的工具。

有幾十種潛在的方式可以將人工智慧應用於醫療保健。有一些正在開發的應用,使用人工智慧來篩選醫療影象,如乳房X光檢查;掃描病人健康記錄以預測他們是否可能生病的工具;幫助人們監測自己的健康的裝置;以及幫助跟蹤疾病爆發的系統。在人們無法接觸到專業醫生的地區,工具可以幫助評估症狀。但是,當它們沒有被仔細開發和實施時,它們可能——在最好的情況下——沒有實現其承諾。在最壞的情況下,它們可能會造成傷害。

在過去的一年中,一些隱患是顯而易見的。在對抗COVID-19大流行病的爭奪中,醫療機構和政府轉向人工智慧工具尋求解決方案。然而,這些工具中的許多都具有世衛組織報告所警告的一些特徵。例如,新加坡政府承認,一個聯絡人追蹤應用程式收集的資料也可用於刑事調查——這是一個 “功能蠕變 ”的例子,即健康資料被重新利用,超出了原來的目標。大多數旨在根據胸部掃描檢測COVID-19的人工智慧程式都是基於糟糕的資料,最終並沒有用。美國的醫院在測試該程式之前使用了一種旨在預測哪些COVID-19患者可能需要重症監護的演算法。

“緊急情況並不證明部署未經證實的技術是合理的,”該報告說。

報告還承認,許多人工智慧工具是由大型私人技術公司(如Google)或公共和私營部門之間的夥伴關係開發的。這些公司擁有建立這些工具的資源和資料,但可能沒有動力為自己的產品採用擬議的道德框架。他們的重點可能是利潤,而不是公共利益。“雖然這些公司可能會提供創新的方法,但人們擔心他們最終可能會在政府、供應商和病人面前行使過多的權力,”報告寫道。

醫療領域的人工智慧技術仍然是新的,許多政府、監管機構和衛生系統仍在摸索如何評估和管理它們。世衛組織的報告說,在方法上深思熟慮和有分寸,將有助於避免潛在的傷害。“技術解決方案的吸引力和技術的承諾可能會導致高估利益,否定人工智慧等新技術可能帶來的挑戰和問題。”

以下是世衛組織指南中六項道德原則的細目,以及它們為何重要的原因。

保護自主權:人類應該對所有健康決定進行監督並擁有最終決定權——這些決定不應該完全由機器做出,醫生應該能夠在任何時候推翻它們。未經同意,人工智慧不應該被用來指導某人的醫療護理,而且他們的資料應該受到保護。

促進人類安全。開發人員應持續監測任何人工智慧工具,以確保它們按規定工作,不會造成傷害。

確保透明度。開發者應該公佈有關人工智慧工具設計的資訊。對這些系統的一個經常性批評是,它們是 “黑盒子”,研究人員和醫生很難知道它們是如何做出決定的。世衛組織希望看到足夠的透明度,以便使用者和監管機構能夠充分審計和理解它們。

培養問責制。當人工智慧技術出現問題時——比如工具做出的決定導致病人受到傷害——應該有機制來確定誰應該負責(比如製造商和臨床使用者)。

確保公平。這意味著要確保工具有多種語言版本,並在不同的資料集上進行訓練。在過去的幾年裡,對普通健康演算法的仔細審查發現,一些演算法中存在種族偏見。

推廣可持續發展的人工智慧。開發者應該能夠定期更新他們的工具,如果一個工具看起來沒有效果,機構應該有辦法進行調整。機構或公司也應該只引進可以修復的工具,即使是在資源不足的衛生系統。

相關文章