调查显示:20% 的全科医生已在日常工作中应用 ChatGPT 等 AI 工具

7个月前发布AI俱乐部
5 0 0
调查显示:20% 的全科医生已在日常工作中应用 ChatGPT 等 AI 工具的封面图

如今,借助日益发展的数字技术,涌现出越来越多的人工智能(AI)工具,例如我们熟知的 GPT 模型以及其他先进的语言模型。

最近,英国医学杂志(BMJ)发表了一项引人关注的研究,该研究对1006篇医学摘要进行了评估,旨在对比医生在撰写摘要时,利用 AI 工具辅助与不使用 AI 工具的情况。研究结果表明,相当比例的医生会选择使用 AI 技术来辅助完成他们的工作,其中就包括 ChatGPT、Bing AI 以及谷歌的 Gemini 等。

研究结果显示,在使用 AI 的医生群体中,有近三分之一(29%)的人选择直接复制 AI 生成的文本到他们的摘要中;另有28%的医生借助 AI 工具来润色语句表达;还有25%的医生则利用 AI 来构思文章框架结构。

然而,这项研究也暴露出了一些潜在的问题,例如医学摘要中出现的不准确信息以及可能存在的抄袭现象,这些都引发了人们对于 AI 技术在医学领域的合理使用和规范的担忧。

值得关注的是,该研究还揭示了使用付费 AI 工具可能会带来更高的风险。研究人员发现,为了追求效率,部分医生可能会过度依赖 AI 生成的内容,而忽略了对信息的核实和校对。这种情况无疑增加了医学文献中出现错误信息的可能性,对医学研究的严谨性构成了潜在威胁。

对此,医学专家强调,在使用 AI 工具辅助医学写作时,务必保持审慎的态度和批判性思维,不能盲目信任 AI 的输出结果,要对信息的准确性进行严格把关。

英国医学杂志(BMJ)对此评论道:“人工智能工具在医学领域的应用前景广阔,但同时也伴随着一定的风险。我们必须对 AI 的局限性有清晰的认识,并采取相应的措施来规避潜在的风险,以确保医学研究的质量和可靠性。”

总而言之,如何合理利用 AI 这一新兴技术,使其在医学研究中发挥积极作用,同时避免其可能带来的负面影响,是当前医学界面临的重要课题。只有在充分认识 AI 的优势和局限性的基础上,才能更好地发挥其在医学领域的潜力,推动医学事业的发展。

总结:

1️⃣ 大约 20% 的医学摘要借助人工智能(AI)工具生成,例如 ChatGPT

2️⃣ 29% 的医生直接将 AI 生成的文本复制到摘要中,28% 润色语句表达。

3️⃣ AI 辅助医学写作可能造成信息不准确,同时可能引发抄袭问题。

快讯中提到的AI工具

ChatGPT
ChatGPT

OpenAI开发的一款先进AI聊天机器人

© 版权声明:
本文地址:https://aidh.net/kuaixun/sc7a3mg6

暂无评论

none
暂无评论...