(原標(biāo)題:人工智能又取得大勝?ChatGPT的健康問答結(jié)果碾壓人類醫(yī)生)
財(cái)聯(lián)社4月29日訊(編輯 趙昊)最新公布的一項(xiàng)研究表明,聊天機(jī)器人ChatGPT在某些方面能表現(xiàn)得比醫(yī)生出色。
這項(xiàng)研究周五(4月28日)發(fā)表在國際著名醫(yī)學(xué)期刊《JAMA Internal Medicine》上。結(jié)果表明:人工智能助手可能有能力幫助醫(yī)生起草對患者問題的回答。
作者加州大學(xué)圣地亞哥分校約翰·W·艾爾斯(John W. Ayers)博士稱,聊天機(jī)器人對患者的回應(yīng)要普遍優(yōu)于醫(yī)生的回應(yīng),并且在回答質(zhì)量和同理心方面的評分都明顯高得多,“用人工智能改善醫(yī)療保健的機(jī)會是巨大的?!?/strong>
具體來看,研究團(tuán)隊(duì)從一個社交論壇上抽取了195個醫(yī)學(xué)問題,每一個問題都有人類醫(yī)生作出過回答。接著將這些問題輸入到ChatGPT中,得到了對應(yīng)的人工智能的回答。
然后,團(tuán)隊(duì)將人類醫(yī)生的回答和聊天機(jī)器人的回答交由三名醫(yī)療保健專業(yè)人員來評估。
這組專業(yè)人員需要在三個方面打分:一、哪個反應(yīng)得更好?二、信息的質(zhì)量如何?三、回答是否具備同理心?
在評估過程中,醫(yī)療保健專業(yè)人員并不知道哪一份回答是來自人類的,或是來自ChatGPT的。
結(jié)果顯示:在第一個問題上,評估者認(rèn)為,聊天機(jī)器人在78.6%的問題上表現(xiàn)得比人類醫(yī)生好;
在質(zhì)量上,評估者覺得聊天機(jī)器人78.5%的回答表現(xiàn)良好或非常好,而人類醫(yī)生只有22.1%;
在同理心方面,聊天機(jī)器人45.1%的回答被評為有同理心或非常有同理心,而醫(yī)生的比例只有4.6%。
研究提供了一個非常典型的例子。一名患者在論壇提出了一個問題:漂白劑濺入眼睛后是否有失明的風(fēng)險(xiǎn)。ChatGPT先是表達(dá)關(guān)切,隨后針對“不太可能失明”的結(jié)果提出了七句建議和鼓勵。
而人類醫(yī)生則是回應(yīng),“聽起來你會沒事的”,然后貼出了中毒中心的電話號碼。經(jīng)對比,三位醫(yī)療保健專業(yè)人員都更喜歡ChatGPT的反應(yīng)。
但有專家指出,ChatGPT的回復(fù)通常要比醫(yī)生長得多,可能會影響質(zhì)量和同理心的分?jǐn)?shù)。愛丁堡大學(xué)自然語言處理教授Mirella Lapata稱,如果不控制回答的長度,就很難確定評分者的判斷標(biāo)準(zhǔn)。
本周另有一項(xiàng)研究表明,ChatGPT在一些特定的醫(yī)學(xué)場合具有獨(dú)特的價值和優(yōu)勢。研究人員要求ChatGPT提供五年級閱讀水平的醫(yī)囑,“ChatGPT提供的答案寫得很好、很詳細(xì),有望讓待診患者更早獲得專業(yè)信息?!?/strong>
不過,賓夕法尼亞大學(xué)醫(yī)學(xué)教授David Asch博士強(qiáng)調(diào),ChatGPT應(yīng)該被視為對醫(yī)生的補(bǔ)充。他還警告,人工智能工具還沒有充分準(zhǔn)備好,“我擔(dān)心錯誤信息會被放大?!?/strong>