Descargitas

来自中国的最新突发新闻。

生成式人工智能会在一般实践中发挥作用吗?

生成式人工智能会在一般实践中发挥作用吗?

消息


什么时候 新闻GP 这篇文章着眼于使用 ChatGPT 等工具的隐私问题,读者想了解更广泛的情况。

正在评估 ChatGPT 等工具在帮助临床医生和患者方面的潜力。 照片:AAP 图片

上星期, 新闻GP 发表了一篇关于使用 ChatGPT 等工具根据要求编写医疗笔记和转诊的文章 农行报告 珀斯五家医院的技术禁令。


三位在技术、隐私和法律医学领域具有专业知识的受访者分享了他们的观点,一致认为这些担忧是有道理的,应极其谨慎地使用技术。


虽然它的重点是狭隘的隐私领域,但这篇文章让许多读者对该技术的更广泛的潜在用途发表了评论。


有人让我发笑。


“这篇文章提出了很好的观点,但它相当片面,”一位读者写道。 “有人问过 ChatGPT 她的意见吗?”


其他人对该技术的潜力没有得到详细阐述表示失望。


有人说它“有偏见……而且过于简单化”。


“对医疗保健中人工智能的担忧是有道理的,但不与技术一起发展的风险又如何呢?” 另一个回答。


通过在技术进步和风险管理之间取得适当的平衡,我们可以确保医疗保健始终处于创新的前沿,同时保持高标准的患者护理和道德规范。


“积极参与技术、评估其影响并相应地调整政策至关重要。”


对应最新版本 澳大利亚全科医学杂志 (AJGP) 类似的信息。

Winnie Chen 博士,一名全科医生,完成了她的博士学位。


他们报告了一项“非正式实验”,其中 ChatGPT 在最近的 AKT 2023 测试中正确回答了五个多项选择题中的四个 – 还指出可以为同一问题生成不同的答案,从而“限制此类测试的频率”。


他们还写了关于“提高医生能力的激动人心的机会”,其中可能包括总结个人电子健康记录、协助处理放射学报告等文件以及多语言交流。


认识到对“人工智能幻觉”、偏见和潜在不道德用途的担忧,全科医生呼吁全科医生“参与对话和研究”,以塑造 ChatGPT 和类似技术的医疗保健用途。


“我们如何改进 ChatGPT 在一般实践中的使用,使我们、受训者和患者受益?” 他们写。


深入挖掘它, 新闻GP 我联系了 Chen 博士,以扩展这些观点,她这样做了,并从她的合著者那里得到了一些意见。


以下是我们收到的问题和完整的答案。

它用于一般实践
newsGP:我不会要求你过多地研究水晶球,因为我知道用这样发展的技术做出预测是多么困难。 但是,如果你能提供任何关于 LLM 被用作一般实践的一部分的可能性的广泛意义,那就太好了。


陈博士说,它有几个潜在的应用领域。 以下是她的完整回复:


学术的
我看到了 GP 研究人员的直接用途。 作为一名 GP,我每天使用 LLM 来帮助编码数据分析和编写任务(例如集思广益、概述文件和起草最终草案)。


患者
现在或在不久的将来,我将面向患者的 LLM 聊天机器人视为一个感兴趣的领域。 正在开发几个医学聊天机器人——例如, Med-PaLM(谷歌). 正如信中指出的那样,患者已经在“谷歌博士”上寻求答案,因此尚不清楚这是否会对医患关系产生额外影响。


医学教育
现在或在不久的将来,我看到法学硕士被用于教育目的——学生一方学习医学内容或教师一方帮助提供教育:例如,创建多项选择题、简答题、临床病例。 JMIR 出版物 她开设了一系列关于使用法学硕士的课程 在医学教育中。


患者
这对临床医生来说最为重要,但我认为开发用于常规临床使用的工具仍然需要一些工作。


在我看来,对于全科医生来说,最节省时间的方法是将其整合到临床软件中以汇总个人信息、协助记录和创建信件/报告。


也有可能将新形式的临床决策支持整合到我们的临床项目中。 但从技术和管理的角度来看,这可能需要数年时间才能发展。


目前,澳大利亚的利益相关者才刚刚开始讨论人工智能行业治理的国家方法(见最后 MJA 状况),包括减轻人工智能风险的法规(见参考 从我们的信中)。


医疗保健中的数据和隐私是医疗保健中的一个难题,需要时间来处理。 我们仍然使用传真(见前 新闻GP 健康)状况)!

AI关注文章1.jpg
新技术可以帮助推进医疗保健,但采用新技术通常需要时间。

Asanga Apiaratne 副教授也写道:
法学硕士将广泛应用于需要合成的各个领域,医学也不例外。


重要的是提供服务的实体(例如 OpenAI)不得向具有其他利益的第三方披露(或出售)。 重要的是在立法中阐明这一点。


直到那个 [time]建议您从提供的数据中排除个人身份信息。


参与讨论
newsGP:你是 提到优化 ChatGPT 的使用以支持一般实践——您自己对此有何看法? 需要采取什么行动来确保一般做法是对话的一部分?


陈博士回复:
作为起点,我认为全科医生——以及一般的医生——应该了解这项技术。 最好的办法就是我们自己去试一试,看看它能做什么,不能做什么。


并非所有个人 GP 都对使用或开发 LLM 技术以用于常规临床用途感兴趣,这没关系。


但我们不能停留在“人工智能不如医生”、“人工智能不准确”、“人工智能危险”。 没有任何工具是完美的,所有新的卫生技术都会带来新的挑战。


让我们一起想想——他对我的生意有什么帮助? 下一步应该开发什么? 需要做什么才能使它更准确? 我们如何合乎道德地恰当地使用它?


如果不熟悉法学硕士,我们就会错过与同事(医学生、实习生、其他医生、健康管理人员等)就其使用进行讨论的机会。


消息灵通还意味着我们对可能有益于一般实践的行业开发工具有投入,并在寻求 MBA 道德/法规职位的专业机构中有发言权,并塑造这些技术的研究和评估。


隐私问题
newsGP:欢迎对原文提出的隐私区发表评论。


陈博士回复:
在 ChatGPT 中输入患者信息,即使聊天记录已关闭,也是一个合理的问题。 因此,应删除提示中的任何可识别信息(例如创建病假信的要点)。


当我们考虑潜在的隐私泄露时,让我们根据它们的实际用途来考虑 ChatGPT/LLM。


搜索引擎呢? 医生每天都在使用它。 当您登录时,搜索引擎会记录您的搜索历史记录,除非您指定不这样做。


全科医生在获得患者许可的情况下匿名讨论病例的社交媒体平台(例如,全科医生在 Facebook 上的 Down Under)怎么样?


我认为了解和关注潜在的隐私泄露并提醒医生保护患者隐私的义务是正确的——尤其是可识别的患者信息。


然而,这不应该意味着我们避免所有这些技术并忽视它们在我们领域的潜在好处。 此外,LLM 可以在卫生服务内部而不是外部实施,这是一个潜在的探索领域。


在下面登录以加入对话。



人工智能通用实践


newsGP 每周投票
您认为出院单应重新制定为临床分娩吗?

READ  莎丽送葬者为疗养院的情人节贺卡道歉