《Clarivate推出生成式AI驱动的Web of Science研究助手》

  • 来源专题:科技出版市场动态监测
  • 编译者: 崔颖
  • 发布时间:2024-11-15
  •     Clarivate(科睿唯安)于2024年9月4日发布了Web of Science研究助手。这款新的基于生成式人工智能的工具可助力研究人员更快找到关键论文,处理复杂研究任务并进行可视化联系。其聊天界面与Web of Science知识图谱相结合,使研究人员能够更有效地利用Web of Science核心合集中120年来的出版物和引文数据。

        Web of Science研究助手的功能包括:

        · 灵活的文档搜索,用户可以用多种语言进行自然语言搜索。该工具提供了超过120多年研究的概述,并揭示研究领域中概念和论文之间的联系。

        · 引导提示和任务,该工具根据特定情境的提示,建议用户如何改进其研究任务,以扩大或细化发现的范围。引导任务包括“了解主题”、“文献综述”或“查找期刊”,帮助研究人员专注于他们真正需要的内容。

        · 独特的数据可视化,用户可以探索趋势图、主题图和共引网络,从不同角度展示主题,并引导他们更深入地开展研究。

        该工具是与全球图书馆员和研究人员合作开发的,并于2023年12月进入测试阶段。开发合作伙伴有助于确保这款基于生成式人工智能的助手能够满足质量、准确性和隐私方面的严格标准。Web of Science研究助手团队将继续与科研界合作,收集反馈和指导,以便进行后续改进。

        科睿唯安学术与政府研究与分析高级副总裁Emmanuel Thiveaud表示,“Web of Science研究助手不仅限于内容发现,而是为研究人员提供了更深入、更丰富的体验。它增强了决策能力,支持技能培养,并深入洞察研究领域的发展动态。”

        作为开发合作伙伴,台湾国立成功大学图书馆知识服务部助理馆长Li-Ling Ou表示,“我们选择参与Web of Science开发者合作伙伴计划,是因为该数据库在信誉和可靠性方面的良好口碑。Web of Science提供的高质量文章,加上试用期的机会,为我们带来了积极且宝贵的体验。我们迫切希望在研究人员中进一步推广Web of Science研究助手。”



  • 原文来源:https://ir.clarivate.com/news-events/press-releases/news-details/2024/Clarivate-Launches-Generative-AI-Powered-Web-of-Science-Research-Assistant/default.aspx
相关报告
  • 《从 ChatGPT 看生成式 AI 对情报学研究与实践的影响》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-07-11
    • 一般地,情报学理论范式指导情报实践工作。有研究将情报学理论范式分为 4 种,并阐释了每种范式下的情报工作重点和发展趋向,分别是:泛信息论范式下的知识管理与综合性知识服务;学术信息服务范式下的信息检索与服务;决策情报服务范式下的战略情报支持;社会信息服务范式下的企业 竞争情报、社会情报、舆情传播等。鉴于这4种范式较为全面地覆盖了情报实践工作的内容,因此本文将以此为视角,分析生成式AI将对情报实践产生的影响。 1.  拓宽知识资源建设渠道,打造知识服务新生态 知识服务是各类情报机构的一项重要职能,而智慧型知识服务是人工智能时代的产物。生成式AI又将推进智慧型知识服务向高级阶段的进化。从知识生产层面,传统的知识资源多出自出版社、数据库商以及情报机构的自建数据库和知识库。生成式AI的出现将拓宽情报机构知识资源建设的渠 道,AI辅助用户内容创作、AI自动生成内容成为 新的知识生产模式。一方面,每个用户可参与到知 识生产过程中,通过AI辅助获取知识创作的灵感、素材,由AI生成文本、图像、代码、3D模型等多模态知识,实现内容续写、跨模态内容生成( 文字 合成图片或视频等),可极大提升用户体验;另一 面,生成式AI能够通过学习数据的底层模式再自动生成新内容。但就目前最先进的生成式AI技术ChatGPT而言,一大特点就是无法保证生成内容的准确性,这与知识的属性相斥。近期发表在Nature上的文章《ChatGPT:五大优先研究问题》中,研究者指出,ChatGPT 被用于科学界,必须要 坚持人类审查的原则。这无疑对情报机构提出 了新的挑战,即缺少前端的专家审核,情报机构需要承担对AI生成知识内容的人工审核与质量把控 的任务。从知识服务层面,随着元宇宙概念的提 出,情报服务机构致力于构建结合 AR、VR、人工智能等技术的超现实空间与现实空间融合的虚实共生的知识服务场景,而生成式 AI 技术也将为此贡献巨大力量,比如利用AIGC生成虚拟人或数字人,利用“ChatGPT+虚拟人”技术打造人机交互新入口,为用户提供沉浸式、立体化知识体验,有助于拓宽情报机构知识服务的范畴,构建知识服务新生态。 2.  塑造学术信息检索新范式,优化学术信息服务模式 ChatGPT的出现对搜索引擎业务构成了较大威胁,但百度指出生成式AI并不能替代搜索引擎,两者是一种互补的关系,并提出了融合两者功能的“生成式搜索”概念,这对情报领域的学术信息搜索发出了信号。一方面,针对以 Web of Science、中国知网、情报机构自建知识库等为代表的学术信息搜索平台,如果借鉴ChatGPT与WebGPT的联动效应,将生成式AI整合至学术搜索平台中,使其实时根据数据库内容更新,生成的内容参考了某篇学术论文则注明其来源。用户关于某一研究主题 得到的检索结果将不仅是文献列表,也能呈现由生成式AI筛选、整合、总结生成的文献综述,又或是根据读者描述的研究思路,基于对海量文献中图表、图像数据的学习,生成技术路线图以供参考,甚至是针对某领域的研究成果,利用生成式AI抽取细粒度知识,自动生成学术知识图谱,把复杂的关 联研究直观地呈现给读者,以交互式问答方式回答读者的问题,并通过连续对话提升读者体验;另一方面,对于学术科研互动社区,生成式AI在学习了 科研用户海量的问答数据之后,可针对用户搜索或提问生成答案。由此可以预测,生成式 AI 将会重塑 学术信息检索新范式,有助于优化信息服务模式, 但其能力边界与训练时被投喂的数据数量、质量、丰富度有很大关系,这将是情报实践工作中着重考 虑的问题。此外,最重要的是,基于 AI 的学术信息 服务需在明确的使用规范前提下开展,避免被错误和虚假信息误导而产生学术不端等后果,这一问题 正是当前学术圈讨论的热点。 3.  挑战决策情报服务体系,驱动情报效能提升 决策支持服务是情报工作的一项重要内容,主要面向国家科技战略、产业发展与产业结构政策、学科发展等战略决策型关键问题,通过文本挖掘、科学计量等方法深度剖析科技发展态势、学科演化、政策布局,形成战略咨询报告。ChatGPT 发布 以后,被尝试用于生成行业分析报告、市场调研报 告等。其使用了来自人类反馈的强化学习方案,具备良好的思维链能力,能够针对特定问题自主生成解决方案。虽然从目前来看,生成的报告内容仍然 不够专业可信,并不能直接用于指导决策,但随着不断地反馈学习以及模型算法的优化,性能会极大地提升。这对面向决策支持的情报服务产生了较大的冲击和挑战,然而并不会完全取代情报人员的工作,而是作为辅助工具加速推进决策支持服务的智能化,驱动情报效能的提升。因为,即便是在Zero-shot设置下执行下游任务,也需要向AI输入提示。换言之,在决策支持服务中,最基本也是最重 要的环节是情报分析对象、方向、预期的情报产物 形式与内容(比如战略报告的框架)的确定,生成 式AI仅作为辅助情报分析与内容生成的工具,前提是情报人员向其输入合适的问题,这意味着情报人员需要对用户需求有深刻的理解并承担情报产品 的设计工作。从另一方面来看,生成式AI有助于将情报人员从琐碎的分析、撰写任务中解放出来,更多地投入创新性研究工作中。比如,在利用科学计量学分析方法辅助制定科技发展战略规划时,AI可以依据已有的理论和方法,针对特定问题基于数据挖掘生成分析报告,但探索计量学新理论、新律,具体到更加科学有效的新的指标体系构建等创造性工作中,仍然需要专业人员的深入研究和持续创新。 4.  增加社会信息服务压力,凸显情报价值引领 在社会信息服务范式下,情报工作在企业竞争情报服务、安全情报服务、舆情风险预警与治理、数据治理等领域发挥着重要作用。生成式AI在赋能情报收集、处理与分析的同时,也会带来一系列负面影响,增加情报服务的压力。比如,在社会安全和舆情治理方面,ChatGPT可能会成为谣言制造者或舆论引导者的辅助工具,在一些误导性、充斥阴谋论的提问下大量改编信息,引导社会舆论向片 面、极端的方向发展。这在一定程度上会加大风险的情报感知与情报预警的难度。在数据治理方面,近年来关于科研大数据治理、企业大数据治理、政府大数据治理等问题愈发重要,治理的维度涉及数据安全、数据标准、数据质量等。伴随着 ChatGPT等生成式AI的快速发展,海量AI生成数据涌向经济、科研、政务等各个领域,由此带来的数据治理 压力是巨大的。从生成式AI模型的工作原理来看,生成数据的质量取决于训练时被投喂的数据质量和输入提示的有效性。因此,数据治理不仅涉及到AI创造的内容,同样涉及训练数据和提示数据。可以预见,情报学在数据治理领域将面临较大挑战,具体包括AI生成数据的质量管理、标准化、数据归类、数据产权归属等各类问题。然而,从另一个角度来看,生成式AI在增加社会情报服务压力的同时,也更加凸显情报的价值和社会效用,如 何充分发挥情报在综合研判、监测预警、信息汇聚 与治理等方面的作用,更好地服务社会发展,是情报工作在AI冲击下保持优势地位的关键。
  • 《Supermicro推出三款生成式AI超级集群》

    • 来源专题:新一代信息技术
    • 编译者:isticzz2022
    • 发布时间:2024-03-26
    •       美超微宣布了其产品组合的最新补充,以帮助加速生成式人工智能的部署。美超微的SuperCluster解决方案旨在为大型语言模型(LLM)基础设施提供基础构建块,而三款新的美超微SuperCluster解决方案现已可用于生成式人工智能工作负载。4U液冷系统或8U风冷系统是专为强大的LLM训练性能、大批量和大规模LLM推理而设计的。       第三款SuperCluster采用1U风冷美超微NVIDIA MGXTM系统,已针对云规模推理进行了优化。美超微总裁兼首席执行官查尔斯·梁表示: “在人工智能时代,计算单元现在以集群为单位进行衡量,而不仅仅是服务器数量,而且凭借我们每月5000个机架的全球制造能力,我们可以比以往更快地向客户提供完整的生成式人工智能集群。一个64节点的集群通过几个可扩展的集群构建块,使用400Gb/s NVIDIA Quantum-2 InfiniBand和Spectrum-X以太网网络,使512个NVIDIA HGX H200 GPU和72TB HBM3e互连。美超微的SuperCluster解决方案与NVIDIA AI Enterprise软件相结合,旨在为企业和云基础设施提供培训当今LLM的高达数万亿参数的生成式人工智能和LLM的基础构建块。”       NVIDIA GPU产品管理副总裁Kaustubh Sanghani表示:“NVIDIA最新的GPU、CPU、网络和软件技术使系统制造商能够加速全球市场的一系列下一代AI工作负载。通过利用NVIDIA加速计算平台和基于Blackwell架构的产品,美超微正在为客户提供他们需要的、可以轻松部署在数据中心的最先进的服务器系统。”       Supermicro 4U NVIDIA HGX H100/H200 8-GPU系统通过使用液冷技术使8U风冷系统的密度翻倍,从而降低能耗并降低数据中心的总拥有成本。这些系统旨在支持下一代基于NVIDIA Blackwell架构的GPU。Supermicro的冷却分配单元(CDU)和流形(CDM)是将冷却液体分配到Supermicro的定制直接芯片(D2C)冷板的主要动脉,使GPU和CPU保持最佳温度,从而获得最佳性能。这种冷却技术使整个数据中心的电力成本降低40%,并节省数据中心的实际空间。配备NVIDIA HGX H100/H200 8-GPU的系统适用于训练生成AI。通过NVIDIA NVLink、高GPU内存带宽和容量的高速互连GPU是运行LLM模型的关键,具有成本效益。       Supermicro SuperCluster创建了一个巨大的GPU资源池,作为一个单一的AI超级计算机。据该公司称,无论是安装一个在数万亿个令牌的数据集上从头开始训练的巨大基础模型,还是构建一个云规模的LLM推理基础设施,具有非阻塞400Gb/s结构的脊柱和叶子网络拓扑都可以无缝地从32个节点扩展到数千个节点。Supermicro表示,采用NVIDIA MGX系统设计,以NVIDIA GH200 Grace Hopper Superchips为特色,将为未来的AI集群创建一个蓝图,解决生成AI的关键瓶颈——运行大型语言(LLM)模型的GPU内存带宽和容量,以降低运营成本。256个节点的集群使云规模的高容量推理能力成为可能,易于部署和扩展。       带有5个机架的4U液冷系统或9个机架的8U风冷系统的Supermicro SuperCluster在一个可扩展的单元中拥有256个NVIDIA H100/H200 Tensor Core GPU。液冷技术可实现512个GPU和64个节点的配置,与风冷256个GPU和32个节点的解决方案占用相同的空间。一个可扩展的单元中包含20TB的HBM3(采用NVIDIA H100)或36TB的HBM3e(采用NVIDIA H200)。1:1网络为每个GPU提供高达400 Gbps的带宽,以实现GPUDirect RDMA和存储,用于训练具有数万亿参数的大型语言模型。采用NVIDIA Quantum-2 InfiniBand和NVIDIA Spectrum-X以太网平台的400G InfiniBand或400GbE以太网交换机结构,具有高度可扩展的骨干叶网络拓扑。       NVIDIA AI Enterprise 5.0软件支持新的NVIDIA NIM推理微服务,可加速大规模AI模型的部署。采用9个机架中的1U风冷NVIDIA MGX系统的超级集群,在一个可扩展的单元中包含256个GH200 Grace Hopper Superchips。高达144GB的HBM3e + 480GB的LPDDR5X统一内存适用于云规模、高容量、低延迟和高批量推理,能够在一个节点中容纳70B+参数模型。采用400G InfiniBand或400GbE以太网交换机结构,具有高度可扩展的骨干叶网络拓扑。每个节点内含高达8个E1.S NVMe存储设备。采用NVIDIA BlueField-3 DPUs和行业领先的并行文件系统选项的可定制AI数据管道存储结构,为每个GPU提供高吞吐量和低延迟的存储访问。NVIDIA AI Enterprise 5.0软件。Supermicro的超级集群解决方案针对LLM训练、深度学习和高容量、高批量推理进行了优化。客户可以获得即插即用的可扩展单元,以便在数据中心轻松部署并更快地获得结果。