微信公众号 联系我们 关于我们 3618客服热线:020-32784919   推广热线:020-32780069
资讯
频道
当前位置:首页 > 医疗器械资讯 > 技术前沿 > 聊天机器人会带来哪些改变

聊天机器人会带来哪些改变

文章来源:健康报发布日期:2023-02-08浏览次数:40
聊天机器人ChatGPT火了。作为一种新形式的人工智能工具,它不仅能够较为流畅地与人类对话,甚至还能吟诗作对、撰写论文和报告、编写代码等。“这个工具太省事了。”“它会不会取代我的工作?”……一时间,有的人对此技术感到既兴奋又惊慌。而就医疗健康行业来说,这样的人工智能技术会带来哪些益处,又有哪些风险?

撰写讲稿,完成文字工作的“研究助手”
  ChatGPT是美国一家名为OpenAI的人工智能公司在2022年11月发布的大型语言模型(LLM)。它可以从数据中自主学习,经过大量数据集训练之后,可以产生复杂且看似智能的“写作能力”。

  “这有可能影响对学生语言和逻辑思维能力的培养。”这是来自国际教育界的担忧。为此,有大学将“使用AI”列入作弊手段。而美国斯坦福大学更是开发了算法技术对抗,研究人员推出了DetectGPT技术,可以检测出通过人工智能生成的文本。

  2月3日,发表在期刊《自然》上的一篇题为《ChatGPT为研究带来的五个机会》的文章指出:人们目前已使用ChatGPT和其他大型语言模型来撰写论文和演讲、总结文献、编写计算机代码、统计分析等,“它可能会加速创新过程,缩短出版时间,并通过帮助人们流利地写作,使科学更加公平,并增加科学观点的多样性。然而,它也会带来担忧,如可能降低研究的质量和透明度,可能会歪曲科学事实并传播错误信息等。”

  对此,多数研究者认为,ChatGPT是现有教学科研工作的一种补充,但是由于其潜在的不良影响,需要在实际使用中格外审慎。“对科学研究领域来说,现在不是拒绝使用的问题,而是如何避免错误使用的问题。”第二军医大学海军医学系退休教授、上海交通大学兼职教授孙学军表示,“由于这种系统不够成熟,目前使用时要坚持对信息进行人工确认,将来也可以利用多种技术来解决。”

  孙学军分析了使用这一系统的3点益处:首先,有利于科学问题的提出。通过先和人工智能进行对话和讨论,至少能快速从文献中获得相关信息,以增加科研思路的科学性。其次,论文发表可能会逐渐失去意义。学术论文是科学家交流思想的载体,但如果能利用人工智能技术和网络存储潜力,学术论文可能会被更有效且具有一定个性化的学术资料库取代,甚至可能逐渐发展出更多新的思想交流模式。大量伪学术研究逐渐失去市场。如果人工智能具有客观评价学术的能力,那许多垃圾论文将会无法立足。这对于净化学术空气,减少无效学术信息,是非常有价值的。

诊断疾病,改善就医体验的“加速器”
  医疗和人工智能的结合是很有前途的话题,ChatGPT在医学领域的用途还在不断探索和研究中。

  不久前,德雷克塞尔大学研究团队将GPT- 3与神经学诊断联系起来。他们从既往研究中得知,阿尔茨海默病患者早期说话方式会发生微妙变化,如停顿、发声质量等。如果能通过人工智能技术捕捉到这些变化,就可以帮助快捷地筛查出早期患者,及早进行干预和治疗。基于这一思路,研究人员使用阿尔茨海默病患者和正常人的语音记录数据集,重新训练了GPT-3。

  经过努力,研究人员实现了这样一个场景:只需要提供一段音频,这个算法能从人群中地检测出阿尔茨海默病患者语言上的细微差别,并给出受检测者的认知测试得分,而且整个过程不需要知道其他个人信息。

  那么,ChatGPT在医学领域能发挥哪些作用?智慧医疗行业的人士张迅杰分析了几大方向:第一,提供个性化健康支持。它可以通过从大量医学数据中学习,并生成详尽、准确的医学报告,帮助人们更好地了解自己的健康状况和风险。第二,改善就医体验。比如,快速回答患者问题、减少等待时间等。第三,简化临床工作流程,如安排预约和管理医疗记录,为医务人员节省时间。第四,分析健康数据,可以为医务人员和研究人员提供更好的决策支持,并为医疗机构提供有关患者治疗结果等方面的见解,还可以辅助远程医疗。

  虽然前景广阔,但ChatGPT技术要想在医疗保健领域广泛采用还面临着一些挑战。“其一,用于训练算法的信息仅持续到2021年,这限制了它对2021年后任何事物的实用性。第二,用户还需要帮助以确保算法提供的答案准确无误。”张迅杰指出。

有不确定性,拥抱未来要明确边界
  人工智能作为具代表性的颠覆性技术,在给人类社会带来潜在巨大益处的同时,因其不确定性可能带来许多挑战。数据安全、算法偏见等问题,是医疗和人工智能结合的热点议题。

  “ChatGPT是一个机器学习模型,仍属于弱人工智能,它不具备个人意识,其应用价值巨大,但同时也引发一系列伦理、法律和社会问题,必须引起注意,尽快着手研究和治理。”从事生命伦理学研究的张迪副教授从社会分工、教育行业、知识产权和公平公正4个方面进行分析。

  第一,当下和未来,哪些人类活动能够被此类技术取代?张迪举例说:“信息的搜集与整理,文本编辑与翻译等,可以帮助人类节省更多时间,提升生产效率。但这并不意味着人类就没有必要去做这些事情。人类只有在亲自行动的过程中,才能真正体验到生命的意义和生活的幸福感。”

  第二,该技术促使人类反思当下的教育,如教育的目的、内容和形式。“人工智能技术如何更好地服务于教育,能否有助于促进教育的公平性?”张迪指出,“要为人工智能的使用划清边界。如学生作业的哪些部分允许使用ChatGPT,哪些不允许,如何识别和防止使用AI作弊等。”

  第三,关于知识产权,目前一些研究者在研究过程中也使用此类语言模型,甚至将其列为作者。这样署名合适吗?通过语言模型开展研究能否体现对前人研究功绩的尊重?张迪认为,关于署名,研究者和期刊应遵循当前的署名规则,如果语言模型仅仅完成了以往翻译者或文字编辑的工作,显然不应将其列为作者。但如果其提出了研究创意或研究方案,则需要反思现有的署名规则是否还适用。

  第四,公平公正是重点议题。“首先要注意的是,歧视和污名化问题。”张迪解释,由于语言模型涉及海量的训练数据集,其中不乏一些带有歧视和偏见类的数据,导致其输出的结果存在或加深歧视。这里还有可能涉及数据安全问题,不排除有人可能会恶意制造大量歧视信息,训练语言模型或诱使其捕捉这些数据,以有意加深歧视。“此外,ChatGPT背后有大量资本投入,其未来的使用必然涉及为资本服务,这会引发社会公正问题。”张迪直言,目前中国并不在ChatGPT可使用的国家之中,即使未来在中国上线,也并非所有人都可以获得。“语言模型技术的可及、可负担的问题也很值得讨论。比如,国家是否应当投入资源研发此类技术以促进公平可及,企业是否应当为贫困人群提供可负担的技术服务。”

  数据所属权及个人隐私也需要关注。“目前,从互联网搜集个人信息和数据可使用爬虫程序或人工检索,但随着语言模型的出现和迭代,很有可能会使已经去标识的信息或数据再次变成可识别信息。所以,如果没有相应的隐私保护规则内嵌于语言模型之中,必将导致大量个人信息和数据的泄露,破坏个人隐私。”张迪说。