加州大學聖地牙哥分校艾爾斯(John W. Ayers)博士稱,聊天機器人對患者的回應要普遍優於醫生的回應,並且在回答品質和同理心方面的評分都明顯高得多,「用人工智慧改善醫療保健的機會是巨大的。)
財聯社報導,具體來看,研究團隊從一個社群論壇上抽取195個醫學問題,每一個問題都有人類醫生作出過回答,接著將這些問題輸入到ChatGPT中,得到對應的人工智慧的答案。
然後,團隊將人類醫生的回答和聊天機器人的回應交由3名醫療保健專業人員來評估。這組專業人員需要在三個方面打分:一、哪個反應得更好?二、資訊的品質如何?三、回答是否具備同理心?
在評估過程中,醫療保健專業人員並不知道哪一份回答是來自醫生,或是來自ChatGPT。
結果顯示,在第一個問題上,評估者認為,聊天機器人在78.6%的問題上表現得比醫生好;在品質上,評估者覺得聊天機器人78.5%的回答表現良好或非常好,醫生只有22.1%;在同理心方面,聊天機器人45.1%的回答被評為有同理心或非常有同理心,醫生的比例只有4.6%。
研究提供一個非常典型的例子,一名患者在論壇提出一個問題:漂白劑濺入眼睛後是否有失明的風險?ChatGPT先是表達關切,隨後針對「不太可能失明」的結果提出7句建議和鼓勵。
而人類醫生則是回應,「聽起來你會沒事的」,然後貼出中毒中心的電話號碼,經過對比,3位醫療保健專業人員都更喜歡ChatGPT的反應。
但有專家指出,ChatGPT的回覆通常要比醫生長得多,可能會影響品質和同理心的分數。愛丁堡大學自然語言處理教授Mirella Lapata稱,如果不控制回答的長度,就很難確定評分者的判斷標準。
本周另有一項研究顯示,ChatGPT在一些特定的醫學場合具有獨特的價值和優勢。研究人員要求ChatGPT提供5年級閱讀水準的醫囑,「ChatGPT提供的答案寫得很好、很詳細,有望讓待診患者更早獲得專業資訊。」
不過,賓夕法尼亞大學醫學教授David Asch博士強調,ChatGPT應該被視為對醫生的補充。他還警告,人工智慧工具還沒有充分準備好,「我擔心錯誤資訊會被放大。」
爆料信箱:news@nextapple.com
★加入《壹蘋》Line,和我們做好友!
★下載《壹蘋新聞網》APP
★Facebook 按讚追蹤