当前位置:首页 > 未命名 > 正文

ChatGPT在诊断人类疾病方面仍然不是很擅长

  

  ChatGPT

  西方大学舒利希医学和牙科学院的一组医学研究人员发现,尽管LLM ChatGPT接受了tb级数据的训练,但它在诊断人类疾病方面仍然表现不佳。在他们发表在开放获取网站PLOS ONE上的研究中,该小组对受欢迎的法学硕士进行了150个案例研究的培训,并促使其提供诊断。

  先前的研究和轶事证据表明,像ChatGPT这样的法学硕士可以在一些提示上提供令人印象深刻的结果,比如为女朋友写一首情诗,但它也可能返回不正确或奇怪的回答。该领域的许多人都建议,在将法学硕士的研究结果用于健康建议等重要话题时要谨慎。

  在这项新研究中,加拿大的研究小组评估了ChatGPT在实际病例研究中描述的真实患者的症状下诊断人类疾病的效果。他们从Medscape(一个由医疗专业人员创建并用于信息和教育目的的在线网站)上选择了150个案例研究,这些案例都附有已知的准确诊断。他们用相关数据(如患者病史、实验室结果和办公室检查结果)训练ChatGPT 3.5,然后要求它进行诊断和/或治疗计划。

  法学硕士给出答案后,研究团队根据结果与正确诊断的接近程度对结果进行评分。他们还根据它在诊断过程中给出的基本原理进行了评分,包括提供引文——这是医学诊断的重要组成部分。然后,他们将所有案例研究的得分取平均值,发现法学硕士的正确诊断率只有49%。

  研究人员注意到,虽然法学硕士的得分很低,但它在描述如何得出诊断结果方面做得很好——研究小组认为,这一特征可能对医科学生有用。他们还指出,法学硕士在排除可能的疾病方面做得相当好。他们的结论是,llm还没有准备好用于诊断环境。

  更多信息:Ali Hadi等人,ChatGPT作为医学学习者和临床医生诊断工具的评估,PLOS ONE(2024)。DOI: 10.1371 / journal.pone.0307383期刊信息:PLoS ONE

  ?2024 Science X Network

  引用: ChatGPT仍然不是很擅长诊断人类疾病(2024,8月1日)检索自https://medicalxpress.com/news/2024-08-chatgpt-good-human-ailments.html这个文档

  作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司

  内容仅供参考之用。

有话要说...