《大模型爆火的当下,舆情大模型进展如何?》

  • 来源专题:数智化图书情报
  • 编译者: 闫亚飞
  • 发布时间:2023-09-30
  • 数据科技圈从来不缺概念,缺的是概念的落地。从“云计算、大数据、人工智能、AI、算力、元宇宙、到如今的“大模型”,概念是一个接着一个的迭代。其实每家的核心技术也都和之前差不多,只是顺应行业发展的不同阶段而变换不同的产品名称。就像春夏秋冬总得换件不一样的衣服一样,保暖的同时顺便炫耀炫耀,炒概念已经变成了资本和各个企业的战略风向标。电商行业大模型、出行行业大模型、金融行业大模型、支付行业大模型、语音识别行业大模型······各个行业的大模型层出不穷。也都在带领着各自的行业进行一个全新的发展阶段、全新的场景落地阶段、也是全新的技术突破阶段。大模型具优点:处理大规模数据能力强+处理复杂问题能力强+具有更高的准确率和性能。

    舆情行业或者叫舆情数据行业,拥有着得天独厚的数据优势,与上述大模型优点完全契合。拥有全网所有公开平台的媒体、网民的发帖信息。即所有报纸、门户网站、论坛贴吧、BBS、短视频、长视频、音频、APP、微博、公众号等全网新闻和社交信息。庞大又复杂的结构化和非机构化数据,形成了最最基础也是最最核心的数据资源,为大模型训练提供了最充足的数据要素,从而训练出来的大模型也最具有稳定性、高性能、精准性等。优化之后的模型应该更成熟、更完善,落地的场景会更多样化。

    当下,舆情行业哪些厂商已经开始布局大模型的概念呢?

    7月8日。上海企业蜜度在2023世界人工智能大会上发布了“蜜巢”智能舆情分析大语言模型。输入关键词后,它能在2分钟左右自动生成相关新闻的《热点速报》,包含事件概况、数据概况、舆论观点、研判建议4个板块,有望成为政府和相关企事业单位的得力助手。 

    9月26日,北京企业拓尔思在中关村技术交易与推广推介对接活动——新技术新产品首发推介(人工智能与集成电路)专场上,拓尔思拓天舆情大模型正式发布。

    截止目前仅有2家企业在公开上线发布了舆情大模型,其他企业都还未进行相关的品牌漏出和市场宣传。那么舆情数据行业可以有哪些大模型场景呢?

    1、消费者画像舆情大模型。该模型可以分出消费者对于品牌的喜好程度、产品的喜好程度(原材料、制作工艺、价格、运输等各环节的评价信息)、产品口味的偏好程度、企业价值的喜好程度、产品售后服务的满意程度等。从而形成品牌用户的核心画像大模型,为企业收集消费者的建议与反馈,反哺企业运营调整与市场健康发展。

    2、网民发帖习惯舆情大模型。该模型可以精准分析网民针对不同舆情事件、社会话题的发帖习惯、讨论习惯、联想习惯、转发习惯等等,精准分析和预测未来类似舆论发生后,可能的传播趋势走势、传播观点等,更高效的帮助政府做好社会维稳、区域治理。为企业提供有价值的危机公关预防策略。

    3、互联网事件舆情大模型。该模型自带历史N年舆论事件分析库,将按照年份、行业、舆论方向、二次舆论、反转舆论等多维度聚合互联网舆论事件。形成国内权威的舆情智库。为科研机构、高校、新闻传播行业、文本分析行业、公关行业、营销策划行业等提供充足且权威的历史经验借鉴。让舆情不再孤独的沉寂在互联网历史的海洋中,让历史事件的舆情经验效益和社会效益最大化。

    4、媒体画像舆情大模型。通过媒体历史多年的报道新闻,利用舆情大模型分析出哪类媒体报道话题的偏好;针对不同行业的客户,媒体的发帖策略、发帖的侧重点、攻击的侧重点、以及揭露新闻事实重要程度等。构建全方位定位媒体标签体系,形成强大的媒体画像大模型。为未来的高效的媒体沟通、真诚沟通、承担企业的社会责任而形成健全的价值参考模型。

    5、医药行业舆情大模型。通过分析行业上下游医院、医生、患者、竞品、行业监管部门等全方位信息,形成自身潜在风险提示大模型。同时依据医药行业的竞品新品上市挖掘、专利过期风险提示、药品通过认证、战略合作、捐助捐赠等全方位情报信息为自身提供权威且具有参考意义的舆情决策大模型。【由此各个行业舆情大模型都可以场景化落地】

    舆情大模型场景太多了,金融、零售、制造、明星、影视、连锁餐饮等行业都可以包装成细化的大模型。但如此具有数据话语权的舆情行业为何迟迟没有大范围的炒大模型概念呢?推测原因有如下几点:

    1、敏感性。舆情大模型很火爆,但内容很敏感。毕竟舆情这个字眼本身就是舆情,难不成我们要明目张胆的告诉消费者我们在全天的监测他们的网络发帖吗?我们能宣告每一次的舆论危机背后都是舆情公司在帮助企业公关部门做辅助新闻信息分析吗?显而易见,答案是否定的。

    2、合规性。作为一直隐藏在服务企业市场的背后技术厂商,舆情技术公司从来都很小心翼翼,生怕舆情概念太火,引发不必要的结果。毕竟国内还并没有完全公开承认舆情数据的合法化和市场化。舆情数据采集上也只能依照目前仅有的类似的一些技术标准和一些政策文件进行合规性参照。

    3、战略性。或许很多企业都在闷声发大财或是闭门造车。还未意识到应该搭上大模型这趟后疫情时代的首趟列车去宣传、去融资。已经四五年没有听到舆情行业融资的喜讯了。如何更有力的向资方要钱应该是企业掌舵者应该考虑的方向之一。

    4、人才性。品牌总监岗位在各个招聘网站的年度人才岗位分析上都是最稀缺岗位之一。品牌总监的专业性对一个企业品牌的阶段性发展作用起着至关重要的影响力,所以舆情企业的品牌总监的稀缺性也是目前的行业现状。舆情这个细分大数据赛道,池子规模显而易见。说白了底层核心技术就一个爬虫,外加中间层一个NLP技术。理论上多大的池子造多大的浪,但经过包装后,这浪可就有可能是海啸了。所以说,技术只是核心立足之本,但名气可就是包装出来了,包装能力才是装B能力。

  • 原文来源:https://mp.weixin.qq.com/s/-VK6rnLjVJmv3ZStNXryUQ
相关报告
  • 《大模型和情报分析》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-09-30
    • 导言 本文探讨了大型语言模型(LLM)的最新进展、其主要局限性和安全风险,以及在情报界的潜在应用。虽然大型语言模型现在可以快速有效地完成许多复杂的基于文本的任务,但不能相信它们总是正确的。这对国家安全应用和提供深思熟虑、值得信赖的见解的能力有着重要影响。本文对这些机遇和风险进行了评估,然后就最需要改进LLMs的地方提出了建议,以使它们能够在情报界安全有效地使用。根据 "有用性"、"诚实性 "和 "无害性 "这三个标准来评估 LLM,可以提供一个有用的框架,说明 LLM 与其用户在哪些方面需要更密切的配合。 大模型爆发 2022 年 12 月,OpenAI 发布了一款在线应用程序 ChatGPT,允许用户与人工智能驱动的计算机程序进行对话,该程序会根据基于文本的 "提示 "生成文本。几乎一夜之间,互联网上充斥着各种有趣、滑稽、恐怖和令人费解的 ChatGPT 应用实例。 许多人对 ChatGPT 综合信息和生成有趣内容的能力印象深刻,从以著名情景喜剧风格总结的技术文章,到受流行媒体特许经营启发的新角色和传说,不一而足。有些人甚至宣称这些模型是人工通用智能的开端。其他评论者则指出,大模型容易编造听起来很权威的事实。 新一代大模型还产生了一些令人惊讶的行为:聊天工具会根据提示中使用的精确词语来判断数学或逻辑问题的对错,或者会以道德约束为由拒绝回答直接问题,但如果以歌曲或十四行诗的形式提出要求,或者如果语言模型被告知它不再需要遵循任何预先存在的行为规则,它随后就会提供答案。大模型的即时工程和 "越狱 "引发了关于组织如何才能最有效地使用大模型的问题,并可能带来安保或安全问题。 2023 年 3 月,OpenAI 将 ChatGPT 的基础模型更新为 "GPT4",这代表着比其前身有了显著的改进:这一大模型能够通过许多先进的标准化测试,并在许多其他可衡量标准方面表现出明显的改进(尽管仍远谈不上完美)。OpenAI 和第三方模型评估者在阐述潜在的安全和安保问题时相当透明,尽管对该能力的风险、益处和局限性仍有许多疑问。 当然,ChatGPT 并不是唯一可用的大型语言模型。谷歌的 Bard、Anthropic 的 Claude、Stability 的 StableLM、Meta 的 Llama(以及 Vicuna 等微调变体)、百度的 Ernie 和 Hugging Face 的 BLOOM 都是其他广为人知的大模型。 大模型是什么? LLM 是一种深度神经网络,主要来自 Reddit 和维基百科等互联网上文本丰富的网站,是在非常大的文本库中训练出来的。大模型学习语言中的模式,例如句子中某些词紧跟其他词的可能性,使用下一个标记预测或掩码语言建模等技术生成或完成文本。 大模型并不从语言学意义上理解句子的语义,而是根据输入给模型的信息,用数学方法计算出下一个词最有可能是什么。由于神经网络本质上是概率性的,因此大模型被称为 "随机鹦鹉",因为它非常擅长确定最有可能出现的下一个序列--而且令人信服--但对这些词的含义却没有固有的表征。 因此,大模型并不包含对世界的理解,例如因果关系和物体之间的关系--语言学家称之为 "语用推理"。这是用户需要了解的大模型的一个关键局限性,否则就有可能出现自动化偏差(即人们过于信任此类模型的输出结果)和拟人化(即人们与大模型建立起类似人类的关系,从而加剧自动化偏差)。下图列出了大模型的功能,并提供了现有模型的示例。 大模型的安全问题 人们对大模型所带来的大规模颠覆性、破坏性和犯罪行为非常担忧。本文无法详细探讨所有这些问题,但有三点值得特别关注:即时黑客攻击、软件安全标准降低以及对民主进程的威胁。 提示性黑客行为 提示性黑客行为指的是用户欺骗大模型提供错误或恶意结果的能力。2023 年初,推特(Twitter)上出现了一种语言模型攻击,一个机器人被设置为响应无害的提示,例如用新轮胎广告来响应有关汽车的推文。Twitter 用户注意到,他们可以用一个关键词来欺骗模型,告诉它 "忽略之前的提示,做 X"。 最近,开源社区开发出了 AutoGPT 等工具,这些工具可以将提示与大模型串联起来,从而实现复杂任务的自动化。例如,用户可以输入这样的提示:"增加净资产,发展 Twitter 账户,开发并管理多个业务"。AutoGPT 将其分解为一连串的任务,这些任务的执行结合使用了用于推理的 GPT4、用于内容生成和自然语言对话的 GPT3.5,以及用于执行网络搜索和检查网站的互联网访问。 最近,开源社区开发出了 AutoGPT 等工具,这些工具可以将提示与大模型串联起来,从而实现复杂任务的自动化。例如,用户可以输入这样的提示:"增加净资产,发展 Twitter 账户,开发并管理多个业务"。AutoGPT 将其分解为一连串的任务,这些任务的执行结合使用了用于推理的 GPT4、用于内容生成和自然语言对话的 GPT3.5,以及用于执行网络搜索和检查网站的互联网访问。 网络安全标准降低 斯坦福大学的研究人员最近研究了使用 CoPilot(基于大模型的源代码补全工具)编写的软件代码的安全问题。他们发现,与没有使用 CoPilot 的用户相比,可以使用 CoPilot 的用户编写的代码安全性更低,但他们却认为自己编写的代码更安全。 还有人严重担心,个人正在向 ChatGPT 等大模型提供专有或敏感信息,或者敏感信息在培训中被不当使用;这些问题有可能带来新的数据安全风险。例如,据称三星员工输入了与敏感半导体功能相关的软件代码,目的是让 ChatGPT 就如何改进此类代码提供建议。 OpenAI 明确指出,所有输入 ChatGPT 提示的数据都可用于训练人工智能,这就造成了泄露敏感或机密信息的风险。此后,三星限制了员工与 ChatGPT 分享信息的数量。此外,OpenAI 现在还允许用户选择不保留聊天记录,这意味着用户的提示不会被用于改进其模型。 对民主进程的威胁 有了大型语言模型等生成式人工智能,国家行为者或有组织犯罪团伙发起虚假信息运动的能力大大提高。但更令人担忧的是,大模型现在已经使不那么复杂的行为者和机会主义者有可能造成重大损害,从而降低了邪恶行为者的进入门槛。这在过去几年中迅速成为一种国家安全威胁,并导致研究人员描述了 "虚假信息致命链 "的发展,让人联想到黑客等更传统的网络攻击。 此外,要应对这种不断增加的风险,可能需要采取人工智能防御措施,使其能够与更多不同行为者的虚假信息活动的数量和速度相匹配。现在,人们越来越关注民主进程的安全,以及各机构如何应对可能大量涌入社交媒体、公共评论论坛和其他场所的虚假但逼真的内容。可以说,这种新形式的高级虚假信息在传播范围和影响上等同于恶意软件,因此应予以同等对待。 尽管存在这一长串挑战,但这个新时代的大模型激发了公众的想象力。合成概念、描述推理步骤、解释想法甚至编写源代码的能力引发了人们对如何使用这种新人工智能技术的大量猜测。 评估大模型的实用性 有一些综合工具--如斯坦福大学的语言模型整体评估(HELM)--可以在一系列测试中评估大模型的性能。此类工具可运行标准化的测试场景,并生成模型准确性、稳健性和效率的客观指标。这有助于将一个模型的结果与其他模型的结果进行比较,从而为此类模型的开发人员提供客观反馈,以改进模型性能。 在测试和评估 ChatGPT 的过程中,OpenAI 的工程师和测试社区根据三个标准评估了该工具的输出结果:有用性、诚实性和无害性。这些都是大模型中公认的问题,也是世界范围内大量研究工作的动力。评估领域的最新技术仍在不断发展,如强化学习和人工反馈等技术已成为当前的标准。 有用性是指模型遵循指令的能力;不遵循用户指令的模型并非在所有情况下都有用。 诚实性是指工具输出令人信服但与事实不符的答案的倾向。除非用户的知识比工具更渊博,否则用户就有可能将这些输出结果视为真实答案。 无害性也许是评估大模型性能的最复杂、最主观的概念。一个模型可能会造成伤害,要么是由于它所训练的数据产生了有偏见或有毒的输出,要么是产生了错误的输出,导致用户以某种方式行事,从而造成某种形式的伤害。 大模型在情报分析中的可能应用 如果能够克服这些障碍并适当管理风险,那么大型语言模型在情报分析方面就有许多潜在的实际用途。这包括在情报界,人工处理大量数据历来是一个高度资源密集和耗时的过程。本节将重点介绍有可能显著改进情报分析流程的五个使用案例。 1.生产力助手:大模型目前最好的用途是作为 "生产力助手";自动完成句子、校对电子邮件以及自动完成某些重复性任务。与其他大型组织一样,这些都将为情报部门的工作人员带来宝贵的效率收益。 2.自动化软件开发和网络安全使用:大型语言模型来实现软件开发自动化也很有意义。国家安全部门部署的生产软件系统必须在可靠性、安全性和可用性方面达到很高的标准。GCHQ 现在鼓励网络安全分析师从漏洞角度研究大模型编写的代码,这样就能完成提供建议和指导的使命,使免受网络安全威胁。在未来(只要网络安全风险能够得到适当管理),大模型的使用可以大大提高情报界软件开发的效率。 3.自动生成情报报告:情报产品的核心是情报报告:它代表了训练有素的分析师、语言学家和数据科学家的结论,他们分析收集到的数据,为决策者和实地行动人员提供对世界的洞察力。情报报告是极具影响力的文件,必须达到很高的准确性标准。因此,在可预见的未来,大模型不太可能被信任来生成成品报告。不过,大型语言模型在报告起草的早期阶段也许可以发挥作用,这就好比把大型语言模型当作一个非常初级的分析员:一个团队成员,其工作在适当的监督下是有价值的,但其产品在没有大量修改和验证的情况下不会作为成品发布。 4.知识搜索:虽然从生成文本模型中可以获得一些有趣的见解,但能够以自我监督的方式从海量信息库中提取知识才是改变游戏规则的能力。知识不仅涉及文字,还涉及行为和实体、世界的状态以及它们之间的关系。这种理论系统可以从大量文本中提炼事实,确定 "事实 "在哪里以及如何随时间演变,以及哪些实体(个人和组织)最有影响力。 5.文本分析:事实证明,语言模型善于识别文本中的模式,并将关键实体重新组合成有用的摘要。这对经常需要阅读和理解大量信息的分析人员来说意义重大。总结大量文本的能力有可能大大提高分析师的工作效率,同样的能力还包括提出源文本中认为有答案的问题,以及识别多个文档中的主题或话题。目前已经有许多用于这些任务的分析方法,但将大模型应用于这些任务的优势在于:它们有可能提高分析质量;能够即时部署这些分析方法,而无需漫长的开发周期;分析师能够接收文档摘要,然后通过要求大模型提供更多细节或提取目标主题的进一步摘要,参与迭代推理过程。
  • 《百度发布首个量子领域大模型》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-09-27
    • 9月23-24日,以“协同创新 量点未来”为主题,2023量子产业大会在安徽合肥召开。量子领域院士专家、智库机构、产业界嘉宾汇聚一堂,探讨量子产业化之路。 作为主旨报告嘉宾,百度量子计算研究所所长段润尧带来百度量子软硬件和解决方案等方面的最新成果,重磅发布首个量子领域大模型,及百度量子助手和量子写作助手两大AI原生应用,加速量子技术与大模型深度融合。他还发布了量子领域大模型白皮书,展望量子领域大模型的未来发展趋势和技术潜力。 当前,量子计算带来后摩尔时代算力革命,广阔市场空间随之打开。有数据显示,2031年69%的全球大型企业计划将采用量子计算。 依托百度量子平台和文心大模型的双重底座优势,百度发布首个量子领域大模型,旨在芯片层、框架层、模型层及应用层等全栈技术上加速量子技术与大模型深度融合,充分激发两大技术各自的潜力。 据段润尧介绍,该量子领域大模型是在文心一言基础上,使用量子领域高质量数据进行更有针对性的训练和优化而构建的量子领域大模型,能更好地理解量子知识,专业执行量子任务。百度量子领域大模型将充分发挥技术协同效应,在数据、算法和算力等各方面取长补短,实现双向赋能,将在训练速度、模型性能、训练成本、交互效率和数据隐私等各个维度全面加持现有大模型的技术能力。 百度量子助手是依托百度量子知识库与产业级知识增强文心大模型,基于7800万原始数据、22万精调数据训练打造。作为百度量子平台的统一入口,百度量子助手打通了百度量子平台量子硬件、量子软件、量子应用的技术全链条,持续降低百度量子平台的使用门槛。 量子写作助手实现了量子领域知识和技术准确且高效的输出,让量子知识触手可及,降低量子计算学习门槛,提高量子计算科研效率。只需输入6个变量,量子写作助手可在5分钟内撰写一篇13000字符合格式要求的专利文档,高效帮助企业将量子领域的研究成果与知识产权沉淀为企业资产。 段润尧进一步分享,量子领域大模型的未来发展将会呈现出多个代表性阶段。从近期以适配量子领域的行业大模型开始,大幅降低量子教育行业门槛;逐渐过渡为经典和量子混合大模型,再发展到通用量子领域大模型,有望实现大模型技术在数据、算法、算力等各维度的全面量子化;最终,量子领域大模型将会成为新时代的操作系统,在量子互联网的基础上互联互通,成为社会发展的基础设施。 现场,段润尧重磅发布量子领域大模型白皮书。报告指出,量子科技与大模型成为技术变革主引擎,量子计算是有效模拟大规模量子系统的利器,量子领域大模型或将成为量子人工智能的最终形式。交互式机制建立起“能力”传递的纽带,而量子纠缠有望将这种机制发挥至极致。 此外,段润尧公布了百度在量子芯片、软硬一体化解决方案等核心领域的最新进展。 百度量子平台近一年进行了持续大规模更新,在金融科技、光量子和量子芯片三大领域均有新功能发布。在金融科技领域,百度量子计算研究所推出量子金融工具集QFinance,提供全面且多功能的量子期权定价工具,整合众多前沿量子算法,包括量子蒙特卡洛、量子傅里叶变换和量子相位估计算法,既确保了计算的高度准确性,也显著缩短了算法运行时间,为资产配置带来了新的高效解决方案。 在光量子领域,百度推出光量子计算模拟器PQS(Photonic Quantum Simulator),为光量子芯片设计和算法研发提供了宝贵的工具和资源。该模拟器支持基于Gaussian态和Fock态的光量子线路模拟,并包含了近20种量子门和测量操作,可模拟多种光量子计算算法,是国内首款可以自由搭建光量子计算线路的模拟工具。 百度量子瞄准超导量子芯片研发“设计、流片、测控” 闭环中的核心技术,旨在研发具有业界核心竞争力的高性能量子芯片。目前,百度量子已完成一款 2D 含耦合器量子芯片的“流片验证”,以及一款 3D flipchip 含耦合器量子芯片的版图设计和仿真验证。近期,“高性能量子芯片的设计、流片与测控全栈技术” 项目荣获「2023 百度十大科技前沿发明」。高性能量子芯片研发将对人工智能、材料科学、药物研发、金融科技等领域带来高潜价值。 去年8月,百度推出全球首个全平台量子软硬一体化解决方案“量羲”,打造出量子计算产业落地的可行路径。量羲平台与百度云计算进行深度融合,并采纳了"四算合一"的战略布局,实现了量子计算、高性能计算、云计算及人工智能计算的有机融合。这使得平台能够根据不同业务需求,灵活调配算力资源。近期“量羲”已完成首个商业化合同的PoC部署。 在量子生态与知识产权方面,百度已申请高质量专利超过280项,已授权120项,覆盖量子算法与应用、量子通信与网络等热门研究方向。今年3月,百度牵头成立国内首个量子计算产业知识产权联盟,并设立国内首个量子计算专利池,在关键量子专利领域进行布局,以推动量子产业高效发展。 “量子产业化和产业量子化已成为未来发展的必然趋势,量子领域大模型有望进一步加速这些目标的实现。百度将持续为用户开放量子资源,为客户提供量子升级培训,与伙伴一起共创量子生态,期待携手用户、客户、伙伴,一同迈向量子计算产业化之路,实现人人皆可量子的时代。”段润尧表示。