《中国国内医学相关的类GPT语言模型》

  • 来源专题:数智化图书情报
  • 编译者: 闫亚飞
  • 发布时间:2023-12-01
  • 1、华佗GPT

    华佗GPT

    有免费体验网站,可直接访问对话,无需注册登录账户。目前处于测试阶段,还在不断完善优化中,由香港中文大学(深圳)和深圳市大数据研究院联合开发。

    是一个基于大量中文医疗语料训练的大语言模型(LLM),目的是让语言模型具有医生的专业知识和患者的友好态度,为医疗咨询场景提供便捷有效的服务。目前处于测试阶段,生成结果正确性目前没有额外机制保证,结果仅供参考,请遵医嘱。界面中有上传图片和语音按钮,但这两个功能实际效果如何还待验证。

    2、左医GPT

    左医医疗大语言模型

    不免费,但可申请短期体验。该对话页面需要用API key,底部有API key申请平台入口,在平台通过客服或联系电话或企业微信号等多种方式申请可获得key,申请就直接给,会给一个有试用期的API密钥,在左医GPT对话页面输入即可体验。目前主要对医院等医疗相关单位机构合作使用。我上次申请体验的是有2天试用期,不知现在能试用多久。

    补充:百度搜索“左医GPT”,有介绍,平台申请直接获得key,因为医疗比较严肃,所以加一道,保证使用安全。——来自本文评论区 张超(左手医生创始人 CEO)

    左医GPT不是基于GPT-3的,而是基于Transforme架构的自研模型。听译机器人的底层技术用的是左医GPT,和openAI没有任何关系。可通过语音识别和自然语言理解技术,实时记录医患对话,并自动生成电子病历。还可通过语言模型和知识图谱技术,为医生提供智能辅助功能,如用药指导、诊断建议、随访管理等。左医GPT是左手医生公司的核心产品之一,目前已经部署在全国近百家头部医院,提供智慧服务。

    官网产品介绍地址(可申请API key) 左手医生开放平台-助力智慧医疗服务建设

    3、岐黄问道GPT

    大经中医岐黄问道大模型 (dajingtcm.com)

    中医大模型,大经中医出品。目前对医疗机构开放申请内测。三个子模型:基于已确诊疾病的临床诊疗大模型,仅基于症状体征的临床诊疗大模型,中医养生调理大模型。

    落地应用:在“学习强国”App中的中医智能健康助手就是基于此模型,只需要选择一些不舒服的表现,就能推荐中医调理方案。广东省中医院、上海中医药大学附属龙华医院等医疗机构单位;南京市江宁区、淄博市高青县等区域中医医联体,上海长宁区“为老服务中心”,下沉到山东吉林等地村卫生室这种基层医疗机构。

    训练呢数据集:1100万条中医知识图谱数据;1500本中医古籍和文献数据;10万份真实中医专家医案数据;10万条脉象、舌象、经络、穴位数据;200万条真实的中医临床诊疗数据。

    大经中医官网:大经中医 (dajingtcm.com)

    4、本草(别名华驼,另有Med-ChatGLM)

    中医大模型,免费开源,但目前无法直接使用,需下载在高性能计算机上进行复杂本地部署,也没有线上网站可体验。

    哈尔滨工业大学开发的一款基于中医药知识图谱的人工智能系统,可提供中医药相关的问答、推理、分析等服务,赋能中医药行业的各个场景。

    项目介绍地址(需翻墙才能访问)

    本草(华驼) https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese

    Med-ChatGLM https://github.com/SCIR-HI/Med-ChatGLM

    5、医联MedGPT

    公司官网 成都医云科技有限公司 (medlinker.com)

    个人无法直接使用,目前与各大医院及机构合作面向患者使用。是国内首个进行线下医院实际问诊等流程场景使用测评的大模型。已进入内部测试阶段,2023年5月正式发布。已拥有近3000种疾病的首诊能力,覆盖80%以上的成年人疾病和90%以上的0-12岁儿科疾病。突破AI医生无法与真实患者连续自由对话的难点,并在医疗问诊场景中支持多模态的输入和输出,在疾病的预防、诊断、治疗、康复四个重要环节全面实现智能化。MedGPT模型相关介绍文章如下:

    文章一:医疗版ChatGPT直播评测!治疗方案与真人医生96%一致

    文章二:鏖战一天,与三甲主治医师医学一致性达到96% 医联 MedGPT 通过首次公开大考!

    在微信公众号“医联Medlinker”中有个“医联MedGPT 媒体沟通会”的发布会视频,里面详细讲解了模型具体情况。

    6、砭石

    中医大模型,不免费,可简单体验。智慧眼开发的医疗领域大模型砭石,是一款支持多模态(文本、图像、视频和音频)输入的人工智能医生,可以提供智能问诊、辅助诊断、智能用药等服务,赋能医疗健康行业的各个场景。

    体验方法:扫描智慧眼官网上的二维码,体验互联网医院的服务,包括智能导诊、在线问诊、处方流转、药物配送等。扫描后进入小程序进行微信登陆,添加就诊人并实名认证,后自动跳转到“急速问诊”页面,该问诊就是基于砭石模型问答。下次再次使用时在小程序首页上的“问诊购药”或“复诊续方”功能按钮进入问答界面。("砭"读bian一声)

    产品介绍官网(页面下滑找到微信小程序二维码) 智慧眼-人工智能/医疗健康-AI计算驱动生命健康

    7、京东JDH 京医千询

    基于京东自己的言犀大模型打造,投喂了京东互联网医院积累了上亿级的医疗问诊数据。远程医疗两个场景:一是药师的问答;二是医患问答。目前与互联网医院及医疗机构合作面向患者使用,个人目前无法直接使用。没有找到官网相关链接及信息,欢迎评论补充。感兴趣的可通过京东云网站客服等渠道咨询就行。

    京医千询_百度百科 (baidu.com)

    8、腾讯健康医疗大模型,面向B端医院企业商业,不对个人开放,官网:腾讯健康

    9、百度灵医智惠,面向B端医院企业商业,不对个人开放,官网:灵医智惠

    10、华为云盘古医疗,网址:盘古大模型_panguLM_大模型_华为云,药物分子大模型,医疗大模型。

    11、清华药物研发助手ChatDD,详情介绍网址:水木分子发布ChatDD 新一代对话式药物研发助手,引领药物研发第四范式

    将于2023年10月中旬邀请测试基础版本。清华系初创团队水木分子宣布发布新一代对话式药物研发助手ChatDD(Drug Design),覆盖药物立项、临床前研究、临床试验的各阶段,作为制药专家的得力AI助手,提升药物研发效率。千亿参数多模态生物医药对话大模型ChatDD-FM 100B。“制药版 ChatGPT”。兼具多模态和对话双重特点,能给医药界学生“解个惑”。主要给国内医药行业“打辅助”,侧重中文对话能力,融入了更多专家的对话模式和经验。

    12、清华BioMedGPT,项目开源地址:https://github.com/taokz/BiomedGPT

    生物医药版ChatGPT。清华大学聂再清教授带领团队着手构建的多模态生物医药领域基础模型,旨在将生物世界分子、文本与知识进行统一表示学习以达到在各项下游任务上能力的整体提升。通过打造的干湿闭环和专家在环的双闭环体系,使得BioMedGPT能够从真实世界学习、向人类专家学习有望成为生物医药研发基础大模型,支撑诸如高通量虚拟筛选、分子生成与优化、个性化药物重定位、生物医药知识检索等多项应用。主要用于科研领域,更擅长英文生物医药科研任务,适合直接拿来作为生物医药领域的相关科研任务的基础模型。

相关报告
  • 《大型语言模型兴起,我们究竟应该关注什么?》

    • 来源专题:科技期刊发展智库
    • 编译者:王传清
    • 发布时间:2024-02-22
    •   牛津大学计算机科学教授Michael Wooldridge在英国广播公司(BBC)的英国皇家学会圣诞讲座上谈论人工智能的危险与前景。   随着大型语言模型(LLM)如ChatGPT的崛起,学术界、政府、企业和媒体都陷入了热烈的争论。这个讨论涵盖了从就业和政治影响,到对人类生存的潜在威胁等各种议题。   Wooldridge形容这些大语言模型(LLM)的出现,就像是从外太空传送到地球上的神秘力量,突然间让AI领域充满了无限可能。而在三年前,这些事情还只是哲学上的争论。对于wooldridge而言,人工智能对人类生存的威胁被过度夸大了。他认为,它们已经造成的实际伤害——甚至是致命伤害——被低估了。而它们所带来的潜力却令人心动。   人工智能的真正风险是什么?   2023年12月12日,在英国皇家学会圣诞讲座上,wooldridge发表演讲,他强调了对人工智能(AI)生存威胁的担忧是不切实际的。他表示,尽管ChatGPT等AI技术引发了一些关于其潜在风险的讨论,但这些担忧在很大程度上是没有根据的。   Wooldridge指出:深入了解ChatGPT的工作原理会让人明白它并不会像人们担心的那样从电脑中“爬出来接管一切”。他强调,尽管存在关于生存威胁的讨论,但从未有人给出合理的方案来证明AI如何成为一种生存风险。   相反,Wooldridge认为对AI生存威胁的过度关注分散了人们的注意力,使得其他更直接的风险被忽视。他警告说,目前存在滥用和伤害的风险,这些都需要关注、监管和治理。   Wooldridge概述了这样一种情况:即有医学症状的青少年可能因为尴尬而不愿去看医生或与护理人员讨论自己的症状。在这种情况下,这些青少年可能会寻求AI的帮助,但得到的建议质量可能很差。   “负责任的医疗机构会尽量拦截这样的询问,并说‘我不提供医疗建议’。但要绕过这些护栏并不难,当技术扩散时,会有很多不负责任的提供者出现,”Wooldridge说:“人们会因此而死亡,因为所发布的产品没有得到适当的保护。”   Wooldridge认为,技术在没有防护措施的情况下扩散是AI的主要风险。AI本身不会造成伤害,但滥用AI的人可能会造成伤害。他强调了英国政府一直在非常积极地研究人工智能的风险,并总结了一种被称为“狂野西部”(Wild West)的情况。在这种情况下,每个人都可以获得AI技术而没有任何防护措施,导致技术变得无法控制。   “这就把强大的工具交到了潜在的坏人手中,他们会利用这些工具做坏事。”Wooldridge警告说,“我们即将迎来英国、美国和印度的大选,在这些国家中,错误信息的传播将会造成严重的问题。”   最大的挑战是什么?我们该如何应对?   Wooldridge将这一挑战概括为:如何支持创新者,同时防止技术扩散至无法控制的境地。当前,尚无简单答案。然而,Wooldridge认为社交媒体公司应采取更多措施,实施能够有效发现并防止错误信息传播的系统。当被问及这是否可能侵犯言论自由时,他回应说:“通常的反对意见是,如果你试图解决这个问题,你就是在扼杀言论自由。但我认为,当有明显的虚假信息被传播时,社交媒体公司有义务做得更多。”   Wooldridge强调在防止伤害与促进创新之间寻找平衡至关重要。他观察到,LLMs领域对于研究人员而言是一个极具潜力的迷人领域。这些新模型的诞生仿佛是一个超级黑洞,彻底改变了整个计算结构,对整个科学界产生了深远影响。Wooldridge进一步指出,他所在大学系里的所有10个研究小组都受到了LLMs进展的影响。在某些情况下,这甚至重塑了他们的研究议程,而在其他情况下,由于相关工作已变得不再相关,他们正在进行收尾工作。   Wooldridge对多代理系统特别感兴趣,在这种系统中,多个AI系统相互作用解决单个系统无法解决的问题。他对大型语言模型表示出极大热情,这些模型代表了一个诱人的机会,使这些模型能够相互交互而不必使用人类语言。他举例说明,可以通过大型语言模型处理幻觉问题。这些模型基本上处于相互竞争的状态,一个模型提出文案,另一个模型对文案进行批判。其目标是在这一过程中就事实陈述达成某种一致。   面对这些人工智能模型所代表的剧变,Wooldridge强调科学交流至关重要。作为爱思唯尔出版的《人工智能》(Artificial Intelligence)杂志的联合主编,他深谙如何在研究人员之间交流研究成果。同时,皇家学院的圣诞讲座也为更广泛地传播人工智能知识提供了一个平台。他认为这是他的重要职责,并已经持续了好几年。他说:“随着围绕人工智能的讨论越来越多,我认为有必要尝试让公众了解什么是人工智能。如果我的工作接受公共资助,我就有义务站出来谈论它,因为这是科学的一部分。”   Wooldridge特别指出公众对AI的误解:人们常常误以为AI拥有自己的意图或思考能力。其中一个最大的误解是人们想象屏幕的另一端有一个大脑,但实际上并不存在。AI并不能思考你的问题。当你深入了解其工作原理时,哪怕只是浅显的了解,你就会明白这只是一种统计算法。这是一种非常先进且令人印象深刻的算法,但它并不会思考或产生任何意识。有些人惊讶地发现,它根本没有 “思想”。围绕人工智能的语言可能会助长这种误解——它 “寻找”信息,它可以被“欺骗”,或者它“想要”提供某种答案。   “我们使用这种语言是因为它很方便”   Wooldridge说,“但将人工智能拟人化的危险在于,我们对它的解读远远超出了实际情况。”   尽管存在诸多讨论、过度解读和潜在的错误信息风波,Wooldridge仍对AI的研究充满热情。他认为这是一个非常有趣的发展阶段。我们已经拥有了非常强大的工具,而我们对它们的探索刚刚开始。这些工具的功能强大且神奇,但我们并不完全清楚它们为何在某些方面会出现问题或其具体的能力范围是什么。探索并绘制出这些工具的能力范围是一项引人入胜的旅程。
  • 《Science改变对使用生成式人工智能和大型语言模型的政策》

    • 来源专题:科技期刊发展智库
    • 编译者:张恬
    • 发布时间:2024-02-22
    •   采用ChatGPT及相关大型语言模型来支持研究和生成学术内容的速度不断加快。Science的政策一直认为在方法部分将使用上述工具适当予以披露是可以接受的。不过,Science最初对使用ChatGPT制作文本和图表采取了非常严格的限制态度,同时也在关注整个科学界的想法和反应,正如其在2023年早些时候表态:“我们认为,谨慎的做法是等待,直到我们更清楚地了解科学界认为哪些用途是被允许的。”   一些组织最近更新了它们的政策。例如,国际医学期刊编辑委员会(ICMJE)就如何在文本和图表的编写中使用人工智能提供了指导。世界医学编辑协会(World Association of Medical Editors)和科学编辑委员会(Council of Science Editors)也发布了类似的公告。   Science现已调整了关于图像和文本完整性的编辑政策,将以下内容纳入其中:   人工智能辅助技术,如:大型语言模型(LLM)、聊天机器人和图像创建器不符合Science的作者标准,因此不得列为作者或共同作者,期刊内容中引用的资料也不得由人工智能工具撰写或共同撰写。作者如果将人工智能辅助技术作为其研究的组成部分,或作为撰写或发表稿件的辅助工具,应在投稿信和稿件致谢部分注明。详细信息应在方法部分提供,应披露作品制作过程中所使用的完整提示词以及人工智能工具及其版本。作者应对作品的准确性负责,并确保没有抄袭行为。他们还必须确保适当引用所有资料来源,并应仔细审阅作品,防止人工智能可能带来的偏见。如果人工智能使用不当,编辑可能会拒绝继续处理稿件。审稿人在生成或撰写审稿意见时不得使用人工智能技术,因为这可能会破坏稿件的保密性。   未经编辑明确许可,Science不允许使用人工智能生成的图像和其他多媒体。在某些情况下可能会有例外,例如在专门涉及人工智能和/或机器学习的稿件中使用图像和/或视频。此类例外将逐案评估,并应在投稿时披露。Science认识到这一领域正在迅速发展,其对人工智能生成的多媒体的立场可能会随着版权法和行业道德使用标准的演变而改变。   Science将继续关注这一充满挑战的领域,并根据需要谨慎调整。