要点
问题可以人工智能聊天机器人助理,提供应对病人的问题,质量可比,同情那些医生写的吗?
发现195年这个横断面研究随机患者社交媒体论坛提问,一个团队相比医师执照的卫生保健专业人员和聊天机器人的反应病人的问题在公共社交媒体论坛上公开。chatbot反应优于医生反应和评价更高质量和同理心。
意义这些结果表明,人工智能助手可以帮助起草应对病人的问题。
重要性虚拟医疗的迅速扩张导致病人信息激增伴随更多的工作和卫生保健专业人员的倦怠。人工智能(AI)助手可以帮助创建回答病人的问题,起草的反应,可能是由临床医生了。
客观的评估人工智能聊天机器人助理的能力(ChatGPT)发布的2022年11月,为病人提供质量和移情反应的问题。
设计,设定和参与者在这个横断面研究,公共和nonidentifiable数据库的问题从公共社交媒体论坛(Reddit的r / AskDocs)被用来随机吸引195交流从2022年10月,一个医生验证回应了一个公开的问题。Chatbot反应生成原始问题进入到一个新的会话(事先问题被要求在会话中)12月22日和23日,2022年。最初的问题以及匿名和随机命令医生和chatbot反应评估团队的一式三份授权卫生保健专业人员。评价者选择”反应是更好”,认为“提供的质量信息”(万博manbetx平台首页非常贫穷的,可怜的,可接受的,好,或很好)和“提供的共鸣或床边的方式”(不善解人意,略善解人意,温和善解人意,善解人意,非常善解人意)。意味着结果被命令在1到5范围内聊天机器人和医生之间的比较。
结果的195个问题和响应,评价者首选chatbot反应医生反应78.6%(95%可信区间,75.0% -81.8%)585年的评估。意味着(差)医生反应明显短于chatbot反应(52[17 - 62]字vs 211(168 - 245)字;t= 25.4;P<措施)。聊天机器人的反应被评为质量显著高于医生反应(t= 13.3;P<措施)。回答评为的比例好或很好质量(≥4),例如,对于chatbot高于医生(CI chatbot: 78.5%, 95%, 72.3%, -84.1%;CI医生:22.1%,95%,-28.2%,16.4%)。这相当于患病率高出3.6倍好或很好聊天机器人质量反应。聊天机器人的反应也比医生更善解人意的反应级(t= 18.9;P<措施)。的比例反应评价善解人意或非常善解人意(≥4)更高的chatbot比医生(医生:4.6%,95%,2.1%,-7.7%;CI chatbot: 45.1%, 95%, 38.5% - -51.8%;医生:4.6%,95% CI, 2.1% - -7.7%)。这相当于患病率高出9.8倍善解人意或非常善解人意聊天机器人的反应。
结论在这个横断面研究,聊天机器人生成质量和病人移情反应问题在网上论坛。进一步探索在临床设置这一技术是值得的,比如使用chatbot起草反应,医生就可以编辑。随机试验可能会进一步评估如果使用人工智能助手可能改善反应,降低临床医生职业倦怠,改善病人的结果。