《医疗人工智能工具获得人类青睐》

  • 来源专题:新一代信息技术
  • 编译者: 王晓丽
  • 发布时间:2023-11-29
  • 发表在《自然》(Nature)杂志《npj 数字医学》(npj Digital Medicine)上的论文,为人工智能以突破性的效率支持医疗工作者打开了大门。

    研究人员训练超级计算机根据新模型 GatorTronGPT 生成医疗记录,该模型的功能与 ChatGPT 相似。

    GatorTron? 模型的免费版本在开源人工智能网站 Hugging Face 上的下载量已超过 43 万次。

    GatorTron? 模型是该网站唯一可用于临床研究的模型,文章的第一作者、来自 UF 医学院健康结果与生物医学信息学系的吴永辉博士说。

    "在医疗保健领域,每个人都在谈论这些模型。GatorTron? 和 GatorTronGPT 是独特的人工智能模型,可以为医学研究和医疗保健的许多方面提供动力。然而,它们的建立需要海量数据和强大的计算能力。我们非常感谢英伟达?(NVIDIA®)提供的超级计算机HiPerGator,以探索人工智能在医疗保健领域的潜力。

    UF 校友、英伟达?(NVIDIA®)联合创始人 Chris Malachowsky 是 UF 新的 Malachowsky 数据科学与信息技术大厅的命名者。

    这座耗资1.5亿美元的建筑由UF和英伟达公司共同出资建造。

    2021 年,UF 利用英伟达提供的价值数百万美元的基础设施包将其 HiPerGator 超级计算机升级为精英级,这在大学中尚属首次。

    在这项研究中,吴和他的同事们开发了一种大型语言模型,可以让计算机模仿人类的自然语言。

    这些模型在标准写作或对话中效果很好,但医疗记录带来了额外的障碍,比如需要保护病人的隐私,而且技术性很强。

    数字医疗记录不能在谷歌上搜索,也不能在维基百科上共享。

    为了克服这些障碍,研究人员剥离了 UF Health 医疗记录中 200 万名患者的身份信息,同时保留了 820 亿个有用的医学词汇。

    他们将这一数据集与另一个包含 1,950 亿个单词的数据集结合起来,训练出 GatorTronGPT 模型,利用 GPT-3 架构(即生成预训练变换器,一种神经网络架构)分析医疗数据。


相关报告
  • 《人工智能在学术研究中的作用》

    • 来源专题:科技期刊发展智库
    • 编译者:董文杰
    • 发布时间:2023-09-07
    • 人工智能(AI)在学术研究领域的崛起近年来成为焦点,这种由机器学习和数据分析驱动的革命性技术正在深度改变各研究领域的格局。借助人工智能,研究人员得以处理大规模数据、抽取有价值的见解并将重复性任务自动化,进而有可能加速科学的探索步伐并提升研究成果的质量。 随着人工智能的不断进步,研究人员必须学会适应并利用这一工具,同时关注其潜在的局限性和伦理影响。通过在AI驱动的自动化和人类创新思维之间寻找平衡,研究人员可以开辟新的可能性,推动科学知识的发展,并为人工智能在学术研究领域的变革潜力作出贡献。 人工智能如何重塑学术领域? 人工智能为学术领域带来了重大改变,从根本上改变了研究、知识生成和教育方式的提供。将人工智能技术整合进学术界可能会简化流程、提高研究效率并催生创新。人工智能对学术界的改变主要体现在数据分析。研究人员可以利用AI算法快速有效地分析海量数据,使他们能够发现传统方法难以捕捉的模式、关联性和趋势。 人工智能正在改变研究过程本身。它通过自动扫描并提取大量科学论文中的相关信息,帮助研究人员进行文献综述和知识合成。这不仅节省了时间,还有助于研究人员了解其所在领域的最新动态。 人工智能对学术界产生重大影响的另一个领域是教育。人工智能技术正在被用于开发智能教辅系统、自适应学习平台以及个性化教育体验。这些技术可以分析学生的学习模式,提供个性化的反馈、支持和资源。 此外,人工智能还有可能增强学术界人员的能力。它可以将重复性任务自动化,从而为研究人员释放出时间,使他们可以专注于更高层次的认知活动。这包括数据收集、分析、甚至论文撰写的自动化。通过简化这些流程,研究人员能够将更多精力用于批判性思考、提出假设和探索新的研究路径。 人工智能在学术研究中的应用 人工智能已在各学科的学术研究中得到广泛应用。以下是一些人工智能在学术研究中的应用实例: ●数据分析和模式识别: 人工智能算法可以分析大型数据集,并识别人类难以识别的模式、相关性和趋势。这在基因组学、气候科学和社会科学等领域尤其有用。 ●自然语言处理(NLP): NLP技术使计算机能够理解和生成人类语言。研究人员利用NLP分析大量文本数据、提取信息、总结文档和检测情感。它应用于文学、语言学和社会科学等领域。 ●计算机视觉: 基于人工智能的计算机视觉系统可以处理和解释图像和视频等视觉数据。研究人员利用计算机视觉分析医疗图像、卫星图像和监控录像等。它可应用于生物学、天文学和环境科学等领域。 ●药物发现与开发:人工智能正被用于预测潜在药物化合物的特性及相互作用,以此加快药物发现过程。机器学习模型能够分析大量的化学和生物数据,确定潜在的药物目标并设计新的分子。 ●机器人和自动化:人工智能驱动的机器人和自动化系统正越来越多地用于学术研究,以执行实验室实验、数据收集和样本处理等任务。这些机器人可以全天候工作,减少人为错误,提高研究工作流程的效率。 ●推荐系统:人工智能算法可以根据用户的偏好和行为提供个性化推荐。在学术界,这些系统可根据研究人员的兴趣和以往工作推荐相关的研究论文、会议或合作项目。 ●模拟和建模:机器学习和神经网络等人工智能技术可用于创建复杂的模型和模拟。研究人员可以利用这些模型来研究和预测物理学、经济学和社会科学等领域的现象。 ●知识发现与整合:人工智能能够帮助研究人员从众多的研究论文、专利及其他学术资源中发现并整合信息。这有助于揭示研究空白、查找相关文献并产生新的见解。 人工智能驱动的学术研究面临的挑战和伦理问题 ●数据偏见和公平性:人工智能系统根据数据进行训练,如果训练数据存在偏见或反映了社会偏见,人工智能模型可能会延续这些偏见。研究人员需要仔细整理和预处理数据,以确保公平性并减少人工智能模型中的偏见。 ●隐私和数据保护:人工智能研究通常涉及处理大量数据,包括个人和敏感信息。研究人员必须确保数据收集、存储和分析遵守相关隐私法规,并获得参与者的知情同意。 ●透明性与可解释性:一些人工智能算法(例如深度学习模型)被视为"黑盒子",其决策过程难以理解和解释。在学术研究中,需要努力提高其透明度,并找出一种方法来解释人工智能推理背后的原理。 ●可重复性和稳健性:研究者应通过提供清晰的人工智能模型、算法和数据集的文档以实现可复制性。关键在于确保人工智能模型的稳健性,使其能够在未接触过的数据中进行泛化,防止过度拟合或结果偏差。 ●知识产权和所有权:人工智能研究通常涉及到合作以及对现有的数据集和模型的使用。需要为知识产权、数据所有权以及研究者间的人工智能模型和代码共享制定明确的指导原则。 ●责任与义务:随着人工智能的日益自主化,问责和责任问题也随之而来。研究者必须考虑其人工智能系统的道德影响,并意识到其部署可能带来的潜在风险和后果。 ●社会影响和工作岗位转移:人工智能技术可能颠覆所有行业,并导致某些工作角色被自动化。研究者应关注其人工智能驱动的研究可能带来的社会影响,并努力确保公平的过渡,创造就业机会并最大程度地减少负面影响。 ●双重用途和滥用:为学术研究开发的人工智能技术既有积极的应用,也存在被滥用的风险。研究者应注意潜在的双重用途问题,并考虑其工作的道德影响,以防止滥用或无意的伤害。 人工智能在学术研究领域的潜力 ●跨学科合作:人工智能将不同学科的研究者联合起来,推动合作并实现突破性的发现。 ●数据驱动的发现:人工智能算法从大型数据集中提取有价值的见解,彻底改变了跨学科研究。 ●个性化和适应性学习:人工智能技术提供量身定制的教育体验,评估学生成绩并提供有针对性的反馈。 ●增强科学发现的能力:人工智能协助研究人员进行假设生成、实验设计和数据分析,加快研究进程。 ●道德考量和负责任的人工智能:研究者正在解决偏见、透明度、隐私和问责等问题,以确保人工智能的道德和负责任地使用。 ●人工智能自动化:人工智能简化了研究工作流程,实现了数据收集和分析等任务的自动化,提高了效率。 ●人工智能应对全球挑战:通过分析数据和优化资源配置,人工智能有助于解决气候变化、医疗保健和贫困问题。 ●增强创造力:人工智能是创造性的合作伙伴,它能够产生创意、综合信息,并在艺术和设计等领域推动创新。 ●增强同行评审和学术交流:人工智能实现了同行评审的自动化,协助语言翻译,并推荐相关研究论文。 ●研究民主化:人工智能平台在全球范围内提供计算能力、数据集和合作机会,使研究民主化。 用于学术研究的人工智能工具 ●Pictory:Pictory是一款人工智能驱动的视频生成器,可简化创建和编辑高质量视频的过程。 ●Jasper:Jasper是顶级的人工智能写作助手,以其卓越的功能和出色的质量在市场上树立了标准。 ●Murf:Murf是一款文本转语音生成器,被公认为市场上最受欢迎、最出色的人工智能语音生成器之一。 ●HitPaw照片增强器: 基于人工智能的提高图像质量和细节的工具。 ●ChatGPT:用于自然语言处理和生成类人文本回复的人工智能模型。 ●Lovo.ai:Lovo.ai作为一个屡获殊荣的语音生成器和文本到语音解决方案,赢得了赞誉。 ●Reply.io:Reply提供了一个全面的销售参与平台,能够以可扩展的方式创造新的机会,同时确保每次互动都具有个性化的触感。
  • 《欧洲议会通过《人工智能法案》》

    • 来源专题:计量基标准与精密测量
    • 编译者:李晓萌
    • 发布时间:2024-04-18
    • 近日,欧洲议会批准了《人工智能法案》(EU AI Act),该法案确保安全和遵守基本权利,同时促进创新。 该条例于2023年12月在与成员国的谈判中达成一致,获得欧洲议会议员523票赞成、46票反对和49票弃权的支持。 它旨在保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响,同时促进创新,使欧洲成为该领域的领导者。该条例根据人工智能的潜在风险和影响程度为其规定了义务。 被禁止的应用程序 新规定禁止某些威胁公民权利的人工智能应用程序,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无针对性地抓取面部图像以创建面部识别数据库。工作场所和学校的情绪识别、社会评分、预测性警务(仅基于对一个人的剖析或评估其特征)以及操纵人类行为或利用人们弱点的人工智能也将被禁止。 执法豁免 原则上禁止执法部门使用生物识别系统,除非在详尽列出和狭义定义的情况下。只有在满足严格的保障措施的情况下,才能部署“实时”RBI,例如其使用在时间和地理范围上受到限制,并须事先获得特定的司法或行政授权。例如,这种用途可能包括有针对性地搜寻失踪人员或防止恐怖袭击。事后使用此类系统(“远程RBI后”)被视为高风险使用案例,需要与刑事犯罪相关的司法授权。 高风险系统的义务 其他高风险人工智能系统也有明确的义务(由于其对健康、安全、基本权利、环境、民主和法治的重大潜在危害)。高风险人工智能使用的例子包括关键基础设施、教育和职业培训、就业、基本的私人和公共服务(如医疗保健、银行)、执法、移民和边境管理、司法和民主进程中的某些系统(如影响选举)。此类系统必须评估和降低风险,维护使用日志,透明准确,并确保人为监督。公民将有权提交关于人工智能系统的投诉,并获得关于基于影响其权利的高风险人工智能系统决策的解释。 透明度要求 通用人工智能(GPAI)系统及其所基于的GPAI模型必须满足某些透明度要求,包括遵守欧盟版权法和发布用于培训的内容的详细摘要。可能构成系统性风险的更强大的GPAI模型将面临额外的要求,包括进行模型评估、评估和减轻系统性风险以及报告事件。 此外,人工或操纵的图像、音频或视频内容(“deepfakes”)需要明确标记。 支持创新和中小企业的措施 必须在国家层面建立监管沙盒和真实世界测试,并向中小企业和初创企业开放,以在创新人工智能投放市场之前开发和培训创新人工智能。 引述 在周二的全体辩论中,内部市场委员会联合报告员Brando Benifei(意大利S&D)表示:“我们终于有了世界上第一部具有约束力的人工智能法律,以降低风险、创造机会、打击歧视并提高透明度。多亏了议会,欧洲将禁止不可接受的人工智能做法,工人和公民的权利将得到保护。现在将成立人工智能办公室,支持公司在规则生效前开始遵守这些规则。我们确保人类和欧洲价值观处于人工智能发展的核心”。 公民自由委员会联合报告员德拉戈斯·图多拉切(更新,罗马尼亚)说:“欧盟已经实现了这一目标。我们已经将人工智能的概念与构成我们社会基础的基本价值观联系起来。然而,除了《人工智能法案》本身,还有很多工作要做。人工智能将推动我们重新思考民主国家核心的社会契约、我们的教育模式、劳动力市场和我们进行战争的方式。《人工智能法》是一个新的起点围绕技术构建的治理模式。我们现在必须集中精力将这项法律付诸实践”。 下一步安排 该条例仍需接受律师和语言学家的最终检查,预计将在立法机构结束前(通过所谓的更正程序)最终通过。该法律还需要得到安理会的正式认可。 它将在《官方公报》上发表后20天生效,并在其生效后24个月完全适用,但以下情况除外:禁止被禁止的做法,将在生效之日后6个月适用;行为守则(生效后九个月);通用人工智能规则,包括治理(生效后12个月);以及高风险系统的义务(36个月)。 背景 《人工智能法》直接回应了欧洲未来会议(COFE)公民的建议,最具体的是关于增强欧盟在战略部门竞争力的建议12(10)、关于建立一个安全可信的社会(包括打击虚假信息和确保人类最终掌握控制权)的建议33(5)、,(3)在确保人工监督的同时,(8)可信和负责任地使用人工智能,制定保障措施并确保透明度,以及关于使用人工智能和数字工具改善公民(包括残疾人)获取信息的建议37(3)。