《提高大语言模型可信度,新方法助生成式AI破除“幻觉” 》

  • 来源专题:人工智能
  • 编译者: 袁晨
  • 发布时间:2024-06-24
  • 人工智能(AI)在给出准确答案的同时,也会有一些“胡乱输出”令人难辨真假,这被称为“幻觉”(hallucination)。而新一期《自然》杂志发表的一项研究报道了一种新方法,能检测大语言模型(LLM)产生的“幻觉”,即该方法能测量生成回答的含义的不确定性,或能提升LLM输出答案的可靠性。
    类似ChatGPT和Gemini等LLM,是能阅读和生成自然人类语言的AI系统。不过,这类系统很容易产生所谓“幻觉”,即生成不准确或没有意义的内容。检测LLM出现的这种错误非常难,因为这些回答的呈现方式看起来很可信。
    英国牛津大学研究团队此次尝试量化一个LLM产生此类错误的程度,从而判断生成的内容有多忠于提供的源内容。他们的方法能检测“编造”——这是幻觉的一个子类别,特指不准确和随意的内容,常出现在LLM缺乏某类知识的情况下。这种方法考虑了语言的微妙差别,以及回答如何能以不同的方式表达,从而拥有不同的含义。团队的研究表明,他们的方法能在LLM生成的个人简介,以及关于琐事、常识和生命科学这类话题的回答中识别出“编造”内容。
    在同时发表的新闻与观点文章中,澳大利亚皇家墨尔本理工大学科学家指出,该方法由一个LLM完成,并通过第三个LLM进行评价,等于在“以毒攻毒”。文章写道,“用一个LLM评估一种基于LLM的方法似乎是在循环论证,而且可能有偏差。”不过,团队指出他们的方法有望帮助用户理解在哪些情况下使用LLM的回答需要注意,也意味着可以提高LLM在更多应用场景中的置信度。
     
  • 原文来源:https://news.sciencenet.cn/htmlnews/2024/6/524937.shtm
相关报告
  • 《医疗AI与GPT | 梳理全球医疗大模型》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-09-27
    • 一、国外医疗大模型 1、谷歌医疗大模型(Med-PaLM) 谷歌和DeepMind的科研人员在《自然》杂志上发表了一项研究,根据其研究结果,一组临床医生对谷歌和DeepMind团队的医疗大模型Med-PaLM回答的评分高达92.6%,与现实中人类临床医生的水平(92.9%)相当。 2、BioMedLM(PubMedGPT) 斯坦福基础模型研究中心(CRFM)和MosaicML联合开发了BioMedLM (PubMedGPT)模型,一种经训练可以解释生物医学语言的大型语言模型。CRFM使用MosaicML平台,根据PubMed的生物医学数据训练了2.7B 参数 GPT,在美国医疗执照考试 (USMLE)的医疗问答文本上取得了最先进的结果。在Pile数据集的 PubMed Abstracts 和 PubMed Central 部分上训练了 BioMedLM。该数据集包含约 50B 个标记,涵盖由美国国立卫生研究院策划的生物医学文献中的 1600 万篇摘要和 500 万篇全文文章。 3、GatorTron GatorTron是由佛罗里达大学开发的电子病历(EHR)大数据模型,从头开始开发了一个LLM(没有基于其他预训练模型),使用89亿个参数和来自电子健康记录的>900亿字的文本来改进5个临床自然语言处理任务,包括医疗问题回答和医疗关系提取。 虽然比Med-PaLM的模型小得多,但这是第一个由学术医疗机构开发的医学基础模型,而不是像谷歌、OpenAI或Meta这样的大型科技公司。 这个数据来源是从UF Health综合数据存储库(IDR)——UF Health系统的企业数据仓库中提取了来自247万名患者的总计2.9亿份临床笔记。这些笔记是在2011-2021年创建的,来自超过126个临床科室和约5千万次接触,涵盖了医疗环境,包括但不限于住院病人、门诊病人和急诊部门的访问。经过预处理和去识别,该语料库包括超过820亿个医疗词汇。 4、CLINICAL QA BIOGPT (JSL) John Snow Labs 长期以来一直是自然语言处理(NLP)工具和算法在医疗用例中的领先者。除了数据标记和提取之外,他们还拥有用于去标识化临床笔记和医疗数据的工具。JSL 最近宣布了一种基于 BioGPT(一个较旧、较小的医疗信息训练的大型语言模型)的LLM(BIOGPT (JSL) ),通过基于JSL数据和NLP工具的微调。该模型在患者去标识化、实体解析(如提取操作代码和医疗术语)以及临床摘要的准确性等领域可能表现更好,甚至可能优于ChatGPT。 https://nlp.johnsnowlabs.com/2023/04/12/biogpt_chat_jsl_en.html 5、ChatDoctor ChatDoctor:使用医学领域知识在大型语言模型LLaMA上进行微调的医疗大模型。 收集了 700 多种疾病及其对应的症状 + 所需医学检查 + 推荐的药物, 以此生成了 5k 次医患对话数据集。此外, 还从在线问答医疗咨询网站获得了 200k 条真实的医患对话数据集。 使用 205k 条医患对话数据集对 LLM 进行微调, 生成的模型在理解患者需求, 提供合理建议并在各种医疗相关领域提供帮助方面能力显著提高。 此外,为了提高模型的可信度,该项目还设计了一个基于Wikipedia和医疗领域数据库的知识大脑,它可以实时访问权威信息,并根据这些可靠信息回答患者的问,这对容错率较低的医疗领域至关重要。 实验表明,医生患者对话的微调模型在精度、召回率和F1方面超过ChatGPT。 https://www.yunxiangli.top/ChatDoctor/ 二、中文医疗大模型 1、DoctorGLM 基于 ChatGLM-6B的中文问诊模型 基于 ChatGLM-6B的中文问诊模型,通过中文医疗对话数据集进行微调,实现了包括lora、p-tuningv2等微调及部署。 Github地址:https://github.com/xionghonglin/DoctorGLM 2、BenTsao 开源了经过中文医学指令精调/指令微调(Instruct-tuning) 的LLaMA-7B模型。通过医学知识图谱和GPT3.5 API构建了中文医学指令数据集,并在此基础上对LLaMA进行了指令微调,提高了LLaMA在医疗领域的问答效果。 地址:https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese 3、BianQue 一个经过指令与多轮问询对话联合微调的医疗对话大模型,基于ClueAI/ChatYuan-large-v2作为底座,使用中文医疗问答指令与多轮问询对话混合数据集进行微调。 地址:https://github.com/scutcyr/BianQue 4、HuatuoGPT 开源了经过中文医学指令精调/指令微调(Instruct-tuning)的一个GPT-like模型 地址:https://github.com/FreedomIntelligence/HuatuoGPT 5、Med-ChatGLM 基于中文医学知识的ChatGLM模型微调,微调数据与BenTsao相同。 地址:https://github.com/SCIR-HI/Med-ChatGLM 6、QiZhenGPT 该项目利用启真医学知识库构建的中文医学指令数据集,并基于此在LLaMA-7B模型上进行指令精调,大幅提高了模型在中文医疗场景下效果,首先针对药品知识问答发布了评测数据集,后续计划优化疾病、手术、检验等方面的问答效果,并针对医患问答、病历自动生成等应用展开拓展。 地址:https://github.com/CMKRG/QiZhenGPT 7、ChatMed 该项目推出ChatMed系列中文医疗大规模语言模型,模型主干为LlaMA-7b并采用LoRA微调,具体包括ChatMed-Consult : 基于中文医疗在线问诊数据集ChatMed_Consult_Dataset的50w+在线问诊+ChatGPT回复作为训练集;ChatMed-TCM : 基于中医药指令数据集ChatMed_TCM_Dataset,以开源的中医药知识图谱为基础,采用以实体为中心的自指令方法(entity-centric self-instruct),调用ChatGPT得到2.6w+的围绕中医药的指令数据训练得到。 地址:https://github.com/michael-wzhu/ChatMed 8、XrayGLM,首个会看胸部X光片的中文多模态医学大模型 该项目为促进中文领域医学多模态大模型的研究发展,发布了XrayGLM数据集及模型,其在医学影像诊断和多轮交互对话上显示出了非凡的潜力。 地址:https://github.com/WangRongsheng/XrayGLM 三、国内产业界的医疗大模型 1、百度灵医大模型 2023年9月19日,百度正式发布国内首个“产业级”医疗大模型——灵医大模型。灵医大模型聚焦智能健康管家、智能医生助手、智能企业服务三大方向,为患者、医院、企业等提供AI原生应用。 灵医大模型能够结合自由文本秒级生成结构化病历,根据医患对话精准分析生成主诉、现病史等内容。此外,灵医大模型也是业内唯一支持多篇中英文文献同时解析的大模型,基于文献解析内容实现智能问答。在辅助诊疗方面,灵医大模型可实现通过多轮对话了解病人病情,实时辅助医生确诊疾病,推荐治疗方案,提升就诊全流程的效率和体验,并成为患者的24小时“健康管家”,提供智能客服服务。此外,灵医大模型还能为药企提供多项赋能,包括专业培训、医药信息支持等等。 2、京东京医千询 京东健康发布了“京医千询”医疗大模型,可快速完成在医疗健康领域各个场景的迁移和学习,实现产品和解决方案的全面AI化部署。 3、腾讯混元医疗大模型 腾讯混元大模型预训练用到的数据高达2万亿tokens,比不少模型高出一个量级。训练数据涵盖285万医学实体、1250万医学关系,覆盖98%医学知识的医学知识图谱和中英文医学文献。这些知识既对大量论文、百科全书、用药说明书中的知识进行了萃取,又纳入了腾讯医典中各个医学专家撰写的针对性的医学文章。所有知识来源都已经过验证,因而可为大模型输出的结果提供权威依据。 一方面来源于患者场景,如线上问诊、医学问答、导诊、预问诊;另一方面来源于医生场景,如医学考题、病历生成、出院小结、检查建议、诊断结果和用药建议。 4、医联MedGPT 预训练阶段使用了超过20亿的医学文本数据,微调训练阶段使?了800万条的高质量结构化临床诊疗数据,并投入超过100名医生参与人工反馈监督微调训练。 5、商汤 “大医”大模型 基于海量医学知识和临床数据打造了中文医疗语言大模型“大医”,可以提供导诊、健康咨询、辅助决策等多场景多轮会话能力。此外,商汤科技同样推出了医疗影像大模型、生信大模型等多种垂类基础模型群,覆盖CT、MRI、超声、内镜、病理、医学文本、生信数据等不同医疗数据模态。 6、云知声山海大模型 云知声将以山海大模型为基础,增强物联、医疗等行业能力,为客户提供更智能、更灵活的解决方案。在医疗场景,发布手术病历撰写助手、门诊病历生成系统、商保智能理赔系统三大医疗产品应用。 7、微脉CareGPT CareGPT 致力于在真实的医疗服务场景中充分发挥健康管理价值,实现预防、咨询、预约、康复的全周期智能化健康管理能力。目前参数规模为 70 亿,可支持医疗健康场景下的多模态输入和输出。 8、东软添翼医疗 医生通过自然语言与添翼交互,快速、精准地完成医疗报告与病历、医嘱开立;面向患者,添翼让问诊更便捷,成为患者全天私人专属医生,提供全面的诊后健康饮食、营养与运动建议等服务。添翼的多模态数据融合能力,也将为医院管理者提供对话式交互与数据洞察,简化数据利用,让医院管理更精细。 9、叮当健康HealthGPT 叮当HealthGPT可以作为AI健康助手,为用户提供全方位的健康相关问题解答和专业建议。无论用户对就医流程、疾病治疗、药品使用、检查结果解读感兴趣,还是关注疾病预防、养生保健、饮食营养、美容健身、家庭医疗护理、心理健康和压力管理,叮当HealthGPT都能满足用户的需求。 10、水木分子ChatDD 新一代对话式药物研发助手ChatDD 及全球首个千亿参数多模态生物医药对话大模型ChatDD-FM 100B,ChatDD (Chat Drug Discovery & Design) 基于大模型能力,则能够对多模态数据进行融合理解,与专家自然交互人机协作,将人类专家知识与大模型知识联结,具备问题理解、任务拆解、工具调用等能力,或有可能重新定义药物研发模式。 11、华为云盘古药物分子大模型 华为云盘古大模型已经深入金融、制造、政务、电力、煤矿、医疗、铁路等10多个行业,支撑400多个业务场景的AI应用落地。2021年发布的华为云盘古药物分子大模型,是由华为云联合中国科学院上海药物研究所共同训练而成的大模型,可以实现针对小分子药物全流程的人工智能辅助药物设计。实验验证结果表明,盘古药物分子大模型的成药性预测准确率比传统方式高20%,进而提升研发效率,让先导药的研发周期从数年缩短至一个月,同时降低70%的研发成本。 12、智云健康:ClouD GPT 依托大数据平台、机器学习平台、模型开发平台、模型训练平台等基础平台,智云健康开发出医疗行业模型ClouD GPT,已经落地在智云AI辅助诊断和AI药物、器械研发的医疗应用场景。 13、卫宁健康:WiNEX Copilot 卫宁健康已于2023年1月开展了医疗垂直领域的大语言模型WiNGPT的研发和训练工作,截至4月、6月和9月的模型训练参数量达到或将达到60亿、156亿、650亿,目前正在探索更多的医疗应用场景,计划于10月正式发布由GPT技术加持的新产品WiNEX Copilot。 14、创业慧康BSoftGPT BSoftGP将以API调用结合本地部署的方式聚合利用通用GPT模型,同时通过本地部署embedding向量数据库以及公司自有的领域知识库,通过医疗垂直领域的语言模型训练和微调逐步实现产品力,并向公司内外部的应用场景,比如在医疗服务和个人健康等场景中输出AI智能服务。 在临床医疗服务方面,BSoftGPT可以根据医生提供的病历信息和临床数据,自动化生成临床决策建议和治疗方案,从而辅助医生进行临床决策,提升现有的临床决策支持系统CDSS的智能化水平;在面向患者服务方面,BSoftGPT可以通过与患者进行自然语言交互,实现贯穿患者诊前诊中诊后全流程的智能导诊、管理。 15、科大讯飞:星火认知 基于星火认知大模型升级的讯飞医疗诊后康复管理平台,将专业的诊后管理和康复指导延伸到了院外。根据患者健康画像自动分析,平台可为患者智能生成个性化康复计划,并督促患者按计划执行。目前,讯飞诊后康复管理平台试点已取得显著效果:提高合作医院医生的管理效率10倍以上,患者康复过程中的随访率和咨询回复率达到100%,出院患者满意度达到98%以上。 16、中国科学院自动化研究所紫东太初 “紫东太初”定位为跨模态通用人工智能平台,于2021年正式发布。今年6月16日,紫东太初发布2.0版本,目前,“紫东太初”大模型已展现出广阔的产业应用前景,在神经外科手术导航、短视频内容摘要、法律咨询、医疗多模态鉴别诊断、交通图像研读等领域开始了一系列引领性、示范性应用。 在医疗领域,基于紫东太初大模型开放服务平台,实现数据智能标注、高效模型训练、模型灵活部署,实现骨科器械/耗材的自动识别和清点,实现智能化、精细化管理,效率相比传统方式提升了6倍,准确率高达97%以上。 17、深圳市大数据研究院&香港中文大学(深圳)华佗GPT 今年6月,华佗GPT的最新的内测版本在深圳发布。由深圳市大数据研究院和香港中文大学(深圳)联合研发的华佗GPT,使用一亿问答(50G)和10-20T医疗文本,是最大的医疗问答数据集。主要应用于医疗咨询和情感陪伴,包括患者培训、健康咨询、就医分诊等。 华佗GPT是通过融合ChatGPT生成的 “蒸馏数据”和真实世界医生回复的数据,训练并开源了一个新的医疗大模型。自动与人工评测结果显示,华佗GPT在单轮与多轮问诊场景都优于现有中文医疗人工智能模型和GPT-3.5,充分证明其处理复杂问诊对话的能力。下一步,华佗GPT将支持多模态输入。 18、北京智谱华章科技有限公司&北京中医药大学东方医院:基于“GLM-130B”的数字中医大模型 6月27日,北京市首批10个人工智能行业大模型应用案例发布,其中包括北京智谱华章科技有限公司和北京中医药大学东方医院共同开发的数字中医大模型示范应用。该项目项目选用了基于智谱华章高精度千亿中英双语稠密模型“GLM-130B”,面向中医领域名医经验挖掘整理需求,构建数字中医服务平台,探索高危肺结节人工智能临床诊疗和临床评价研究等解决方案,实现中医临床经验的智慧化复制新模式。项目已初步研发了医疗垂直领域的问答功能,支持对医疗、健康问题进行智能化知识问答;同时开发了根据症状生成中医处方,并提供处方主治症候医学解释等辅助诊疗功能。 19、哈尔滨工业大学:“本草”中文医学大模型(原名:华驼) 据今年5月报道,哈尔滨工业大学的研究团队训练出中文医学大模型,命名为“华驼”,后更名为“本草”。“本草”团队主要利用了中文医学知识图谱CMeKG和2023年关于肝癌疾病的中文医学文献,借助OpenAI API,分别构造了8000条问答数据和1000条多轮对话训练数据。然后,基于LLaMA-7B基座模型,进行有监督的微调,构建了“本草”中文医学大模型。 20、上海人工智能实验室:OpenMEDLab浦医 6月29日,由上海人工智能实验室牵头,并联合国内外顶级科研机构、高校及医院共同发布全球首个医疗多模态基础模型群“OpenMEDLab浦医”,并逐步开源。“OpenMEDLab浦医”融合了全球顶尖的AI研发能力、海量医学数据以及医学专家知识,首批发布的基础模型群中,包含基于医学图像、医学文本、生物信息、蛋白质工程等10余种数据模态训练而成的基础模型。该模型将促进基于医疗基础模型的跨领域、跨疾病、跨模态科研突破,同时助力解决医疗领域的长尾问题,推动医疗大模型的产业落地。
  • 《技术动态 | 东北大学发布TechGPT2.0大语言模型》

    • 来源专题:数智化图书情报
    • 编译者:于彰淇
    • 发布时间:2023-12-01
    • 文本数据分析的利器----TechGPT-2.0大语言模型 引言随着大模型时代的到来,大模型与知识图谱融合的工作日益成为当前研究的热点。为了对这项工作提供研究基础,东北大学知识图谱研究组于2023年6月发布了TechGPT-1.0大模型。 在TechGPT-1.0基础上,经过几个月的努力,东北大学知识图谱研究组发布功能更全、性能更好的TechGPT-2.0大模型。TechGPT-2.0延续了TechGPT-1.0以“知识图谱构建”与“智能问答”为核心的构建目标,在继承TechGPT-1.0全部功能的基础上,对其多项功能进行了增强,同时扩充了新的功能。 01基本介绍Introduction TechGPT-2.0 为TechGPT-1.0 基础上的改进版本,其采用华为昇腾服务器(4机*8卡-32G 910A)、华为MindSpore框架、采用全量微调方式训练完成。此次共发布两个7B版本的TechGPT-2.0模型,分别为TechGPT2-Alpaca、TechGPT2-Atom。 TechGPT-2.0 较TechGPT-1.0 新加了许多领域知识。除了TechGPT-1.0 所具备的计算机科学、材料、机械、冶金、金融和航空航天等十余种垂直专业领域能力,TechGPT-2.0 还在医学、法律等领域文本处理上展现出优秀的能力,并扩充了对地理地区、运输、组织、作品、生物、自然科学、天文对象、建筑等领域文本的处理能力。TechGPT-2.0还对幻觉、不可回答、长文本处理等问题进行了能力增强。同时,TechGPT-2.0对部署的硬件要求更低,使用NVIDIA 4090单机单卡、或昇腾910A单机单卡就可完成TechGPT-2.0模型部署。亮点介绍TechGPT-2.0 在继承了TechGPT-1.0 的能力上进行了重要的改进,具有以下几项新增亮点功能: 一、TechGPT-2.0 对医学领域文本的处理能力取得了显著提升。TechGPT-2.0在处理医学文本时能够更全面地理解上下文信息,能够对疾病、药物、专业术语等实体的进行更准确识别,还能够理解医学文本中的复杂关系、疾病诊断、治疗方案等内容。这种全面的医学分析能力使得模型可以用于协助医生阅读医学文献、提供患者诊断建议等应用场景,从而提高医学领域的信息处理效率和准确性。 二、TechGPT-2.0 能够更好地理解和解释法律文本,包括法规、合同和案例法等。TechGPT-2.0通过学习法律用语和结构,能够更准确地捕捉文本中的法律关系和条款,为用户提供更有深度和专业性的法律分析。这使得TechGPT-2.0模型在法律领域中的应用前景更为广泛,可以用于解决自动化合同审查、法规遵循检查等任务。 三、TechGPT-2.0 增强了对嵌套实体的抽取能力。即TechGPT-2.0可以更灵活地处理实体之间的复杂关系,深入挖掘文本中的层次结构,提高了对复杂文本的理解和生成能力。例如,在医学文献中,可能存在嵌套的实体关系,如疾病的亚型、药物的剂量信息等,TechGPT-2.0 能够更好地捕捉这些信息,并在生成回应时更准确地反映上下文的语境。 四、TechGPT-2.0 在幻觉、不可回答问题、长文本处理、以及与人类价值观对齐方面进行了强化。TechGPT-2.0通过对话和理解上下文,能够更好地理解人类的感受和价值观,并在回应中考虑这些因素。此外,TechGPT-2.0能够支持最大长度12K的文本输入,这使得模型能够更好地与人类用户进行交互,更好地满足用户的需求和期望,进一步提升了人机交互的质量和用户体验。 五、TechGPT-2.0使用华为昇腾910A服务器、华为Mindspore框架、以及Mindformer套件进行开发,采用分布式训练方案,使用服务器数量为4机*8卡(32G),具有更低的部署硬件要求。目前TechGPT-2.0的部署在使用NVIDIA的显卡并使用float16的情况下显存仅需15G,INT8量化下显存占用8G,INT4量化下显存仅需5G。因此,用户使用NAVID 4090单机单卡、或昇腾910A单机单卡就可以部署TechGPT-2.0模型。 总体而言,TechGPT 2.0 在继承了 TechGPT 1.0 的全部特性的同时,通过增加多领域、多任务的数据,展现出了嵌套实体的抽取、幻觉回答、回答不可回答问题和回答长文本问题的能力。这些改进使得模型更适用于广泛的应用场景,为用户提供了更准确、更深入的信息处理和生成能力。/////    02模型说明Model TechGPT2-Alpaca使用HFL发布的Chinese-Alpaca-2-7B模型,Chinese-Alpaca-2-7B模型是在Chinese-LLaMA-2-7B的基础上进一步通过指令精调获得。Chinese-LLaMA-2-7B为基座模型,是在LLaMA-2的基础上进行中文增量训练获得。 TechGPT2-Atom 使用Llama中文社区联合AtomEcho(原子回声)共同发布的Atom-7B-chat,并在此基础上进行全量微调后获得。 我们TechGPT-2的两个7B版本的模型、以及使用QLora线性插值法微调的长文本模型都已经在Hugging Face和GitHub上开源。后续在这些模型基础上的改进,也将开源到相同账号,欢迎大家使用并提出宝贵的意见。 HuggingFace地址:https://huggingface.co/neukg/TechGPT-2.0-alpaca-hf https://huggingface.co/neukg/TechGPT-2.0-atom-hf GitHub地址: https://github.com/neukg/TechGPT-2.0 03体验地址Link 我们目前对外提供TechGPT-1.0与TechGPT2-Atom版本的在线服务:http://techgpt.neukg.com/ 作为一个学术组织,我们无法长期提供模型的在线服务功能,当前的体验系统存在着随时下线的可能。因此建议大家后续通过开源权重自行体验,共同创建更好的中文大模型开源环境。///// 04模型样例Example TechGPT-2.0 在保留了TechGPT-1.0 模型的通用能力、实体识别能力以及三元组抽取能力的基础上,能够完成更为复杂的嵌套实体识别,并在医学、法律领域展现出优秀的能力,此外对幻觉、不可回答问题以及长文本问题有着较好的解决能力。