《大语言模型如何打破科研文献的“信息孤岛”》

  • 来源专题:科技出版市场动态监测
  • 编译者: 崔颖
  • 发布时间:2025-09-30
  •     一、现有大语言模型的局限

        LLMs尚不能真正处理大多数同行评审研究文章。因为大部分内容被付费墙阻隔,无法获取。如果LLMs是未来信息发现的方向,那么学术出版商传播的有价值研究成果就可能被抛在身后,除非我们在权威研究与智能检索之间架起一座桥梁。

        出于多种原因,许多出版商不愿与大型AI公司合作。有些认为AI公司侵犯了其版权,有些担心这会严重威胁自身业务,还有些则在观望同行的行动。出版商与AI及AI公司的互动呈现出不同态势:一端是抵制并与AI公司对抗的群体,另一端则是宣布达成大型许可协议并建立直接合作关系的群体(例如威立近期宣布与Anthropic达成合作)。

        由于困惑、威胁以及技术的不断变化,最新AI技术与网络上最具权威性的内容——研究论文之间存在鸿沟。虽然这看似是一个新挑战,但这让人想起互联网初期,当时海量信息网页以前所未有的规模涌现。正如Sergey Brin和Larry Page在其开创性论文中指出,“网页的激增缺乏质量控制”,“一条关于IBM计算机某个冷门问题的随机存档留言,与IBM官网页面截然不同”。这与LLMs和聊天机器人的情况非常相似:由于ChatGPT等服务使用便捷且价值易见,它成了史上增长最快的产品。然而,我们很难判断ChatGPT生成的内容是权威信息还是“虚拟”内容。

        与网络发展初期类似,AI公司正在寻找更好的方法,为用户提供可验证的准确信息。ChatGPT最初没有参考来源。现在它通过一个称为检索增强生成(Retrieval Augmented Generation,RAG)的过程,引用网页甚至科学论文中的来源(尽管仅限于开放获取的文章)。

        AI系统的质量取决于其训练数据或所能交互的内容质量。这通常导致生成虚假或不完整的内容。就像网络初期一样,科学出版可能成为解决方案的一部分,例如引文。

        区分可信网页与不太可信网页的挑战,很大程度上通过PageRank算法得到了解决,而该算法直接受到了引文分析和科学出版的启发。Brin和Page在他们那篇开创性的文章中指出,PageRank“提供了一种更复杂的进行引文计数的方法”,科学引文索引的创建者Eugene Garfield甚至被Brin和Page引用。因此,引文有助于使网络更加可信和有用。我认为引文可以对LLMs起到同样的作用。

        二、引文与大语言模型

        在过去的十年里,我一直在深入思考引文。在科学领域,引文在很大程度上被用作一种“货币”、衡量成败的指标,也是研究人员和期刊所渴求的东西。我最喜欢的一篇论文的标题很好地抓住了这一点,《C.R.E.A.M:引文主宰我的一切》。尽管对引文有着热烈的兴趣,但自其诞生以来,它们的呈现方式几乎从未改变,即引用该文章的一系列论文列表。传统引文并不显示一篇文章是如何或为何被引用,仅仅表明它被引用了。然而,研究表明,引用一篇文章有几十种原因。

        Scite一直在努力改进引文,通过呈现引用文章中实际的文内引述语句,标明这些语句在文档中的位置,并指出被引观点是得到支持还是被反驳。这些增强的片段,我们称之为“智能引文”(Smart Citations),能够系统性地为研究问题提供可验证的答案。

    图1 Scite.ai智能引文的示例

        图1展示了引用文章中的文本内引述语句、这些语句在文档中的位置,以及被引述观点是得到支持还是遭到反驳。

        关键在于,我们构建下一代引文的工作是在与出版商直接签订的索引协议下进行的。我认为,AI公司与出版商之间可以构建一种合作机制,以既能保护研究人员和出版商,又能将全球最强大的LLMs与权威内容连接起来的方式。

        三、智能引文

        智能引用(或类似形式)可以作为一种模型,向LLMs许可研究文章,供其在检索增强生成(RAG)中使用。一个跨出版商的统一带注释引文数据集可以进行许可,且使用情况可追踪(甚至可与COUNTER标准兼容)。这是一种负责任地填补AI/LLMs与科学出版商之间差距的新方式。

        这种模式能带来诸多明确的益处:

        ·归属权(Attribution):如果LLMs无法交互某篇文章,就无法引用它。通过受控方式直接许可内容,能让内容更有可能在聊天机器人中被呈现和引用。

        ·可靠性(Reliability):LLMs难以令人信服。通过将LLMs与权威内容关联,其输出会更可信、更全面。引述片段可以被呈现,方便终端用户验证,同时又不会削弱正式版本的价值。

        ·可发现性(Discovery):类似于摘要有助于内容在网络上被更多人发现但又不会泄露全文一样,引述片段既能保留正式版本,又能为研究人员和出版商带来流量。

        ·补偿(Compensation):出版商的正式版本在发现环境中被使用时,能获得报酬。LLMs与某篇文章的交互次数越多,内容的付费次数就越多。可以将“人工智能读取量”视为新的阅读量和下载量。

        这种方法可以扩展,不仅为研究领域构建下一代引文,还能为大型语言模型打造专用引文。聊天机器人正在被有真实问题的真实的人使用,有时答案会以非常严肃的方式直接影响他们的生活。作为一个群体,我们应当思考如何确保社会和世界能获得尽可能优质的信息。我认为出版商现在比以往任何时候都更加重要。

  • 原文来源:https://scholarlykitchen.sspnet.org/2025/08/07/guest-post-a-smarter-way-to-license-research-articles-for-ai/
相关报告
  • 《哈工大发布大模型思维链推理综述:200+文献全面解析大语言模型思维链推理最新进展》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-11-03
    • 01 引言 思维链,一种通过逐步思考解决问题的方式,在解决复杂推理任务上展现出了惊人的性能,激起了人工智能和自然语言处理领域近年来的广泛研究和关注。 然而,目前缺乏一篇针对思维链及其变体的系统性归纳和总结。针对这一问题,本文对现有思维链相关研究进行了广泛调研,对思维链构造方法、思维链增强方法、思维链结构变体进行了归纳和总结,对思维链前沿应用做出了探讨并对思维链未来潜在研究方向进行展望。 为了与传统链式思维链进行区分,本文提出了泛思维链(X-of-Thought)的概念,其泛指基于思维链核心思想——逐步思考解决问题的方法和变体。在下文中所讨论的思维链均代指广义的泛思维链。我们期望这篇综述能够为研究者和初学者提供参考和启发,激发更多关于思维链推理领域的深入探讨,推动该领域的进一步发展和创新。 02 背景介绍 2.1 范式转换 近年来,随着计算能力的不断提升,大规模语言模型如雨后春笋般涌现,例如 GPT,LLAMA,BLOOM。而随着语言模型规模的不断扩大,涌现出了许多令人惊喜的能力,例如上下文学习和思维链能力。因此,自然语言处理的范式正在从预训练+微调转变为预训练+上下文学习。 2.2 上下文学习和思维链推理 上下文学习(In-context Learning)通过在提示文本中添加输入-输出示例,通过少样本学习(Few-shot Learning)的方式让 LLM 模仿已有示例(demonstrations)解决新的问题。通过上下文学习,LLM  无需额外微调即可使用,并且还能取得不错的性能。尽管如此,其在面对复杂数学推理、常识推理等复杂推理任务时表现不佳。 思维链(Chain-of-Thought)推理要求模型在输出最终答案之前,显式输出中间逐步的推理步骤。这一举措大幅度提高了 LLM 在复杂推理任务上的表现,并且输出的中间步骤方便使用者了解模型的思考过程,提高了大模型推理的可解释性。目前,思维链推理已经成为大模型处理复杂任务的一个常用手段。 03 章节组织 我们将从三个角度介绍思维链相关方法,并且在最后进行了方法间的比较和讨论: 思维链方法(包含思维链构造方法、思维链结构变体、思维链增强方法) 思维链前沿应用(包含工具使用、决策规划、思维链蒸馏——提高小模型推理能力) 未来研究展望(包含多模态思维链推理、可信思维链推理——减少幻觉、思维链理论研究) 04 思维链方法 4.1 思维链构造方式 根据模型进行思维链推理所需的推理链条人工标注程度,我们将其分为手动、自动、半自动三种构造方式。 4.1.1 手动思维链构造 示例中的推理链条完全由人工标注。优缺点:人工标注推理链条具有较高质量,为少样本学习提供了优质的信号。但是人工标注需要较大的人力成本开销,并且会遇到示例选择难以优化、跨任务迁移困难等问题。 4.1.2 自动思维链构造示例中的推理链条完全无需人工标注。具体来说,它分为 Zero-shot CoT 和 Auto CoT 两种方式。前者通过特定的提示文本激发模型在没有示例的情况下生成推理链条;后者则是使用前者零样本生成的推理链条,并结合示例选择策略,通过少样本学习的方式生成推理链条。优缺点:自动思维链构造不需要人工标注极大减少了人工成本,并且由于无需针对任务设定示例,在不同任务间可以方便迁移。但是由于缺少高质量人工标注信号,其性能通常较差,时常会出现事实错误、逻辑错误等幻觉现象。 4.1.3 半自动思维链构造示例中的推理链条少量由人工标注。具体来说,人工标注少量推理链条作为“种子样例”,基于这些种子样例进行拓展得到大量的推理链条,之后通过示例选择通过少样本学习的方式生成推理链条。优缺点:半自动构造方法结合了前二者的优点,在推理性能和人力成本间达到了平衡。少量人工标注提供了高质量的信号从而提高了推理质量,并且自动的推理链条拓展也减少了人工成本,在不同领域间迁移也仅需对种子样例进行重新标注。 4.2 思维链结构变体最原始的思维链是链式结构,并且以自然语言描述中间推理过程。链式结构过于线性,一定程度上限制了它在复杂任务上的能力,为此许多研究对思维链的结构进行了探索。 4.2.1 链结构变体链式结构变体主要针对中间推理过程的形式进行修改。程序语言的执行和复杂数学推理的过程十分契合,一些工作提出使用程序语言代替自然语言,通过生成可执行程序作为推理链条,并执行该程序得到最终推理结果,例如 PAL、PoT。此外还有一些其他形式的中间推理过程,例如 Algorithm-of-Thought 将推理链条替换为算法的执行过程,激发大模型内部使用算法推理的能力,Chain-of-Symbolic 在规划任务中使用符号代替了复杂的环境。 4.2.2 树结构变体链式结构的思维链限制了探索的广度,一些方法显式地构造了树并引入了树搜索算法。结合树结构和树搜索算法可以对不同的推理路径进行探索,并且引入了回溯、自我评估、剪枝的操作,在复杂任务及规划任务上取得优秀表现(Tree-of-Thought)。此外有方法在中间步骤中额外引入了不确定性评估,一定程度缓解了由不确定性带来的推理级联错误(Tree-of-Uncertain-Thought)。 有些方法通过树结构加快推理速度,通过将问题分解成可以平行解决的子问题并行解码,但这种方法仅限于解决简单任务,无法处理复杂推理任务(Skeleton-of-Thought)。然而,当前的树结构变体方法在任务选择上有较大的局限性,并且需要针对任务设定具体的提示指令,这些困难阻碍了它的广泛应用。 4.2.3 图结构变体图结构相较于树引入了更复杂的拓扑结构。Graph-of-Thought  在推理中通过环结构引入了自我修复,并根据图拓扑结构引入了信息聚合,在处理复杂任务时有着更较优秀有的表现,但是其面临着和树结构变体类似的问题,阻碍了它的广泛应用。ResPrompt  通过在提示文本中引入了“残差链接”来连接、聚合不同步骤的推理结果,隐式地引入了推理步骤之间地图结构,可以在数学推理等通用任务上使用,并且取得了优秀的效果。 4.3 思维链增强方法针对思维链进行某一特性的针对性增强,例如添加推理步骤的验证和完善、引入外源知识、问题分解、多次采样并投票、提高效率等。 4.3.1 基于验证和完善大模型在推理过程中往往会出现幻觉现象,例如事实性错误和逻辑性错误。通过引入针对推理过程的验证来获取反馈信号,并根据该反馈讯号对推理进行完善可以一定程度缓解这种现象。一个简单的思路是对推理步骤进行校验,例如通过演绎推理检验前后推理的一致性(Verify-CoT)、对每一个推理步骤进行细粒度的校验(DIVERSE)。 事实性错误通常通过引入知识进行缓解,具体来说分为外源知识和内源知识。对于内源知识,模型在回答问题前,首先通过提示指令获取模型内部的知识,并基于这些知识进行推理(SCREWS、Chain-of-Verification、Crystal、Step-Back Prompting),外源知识的引入将会在后续章节中介绍。对于推理一致性,一些方法通过反向推理进行验证。具体而言,他们根据问题和模型的预测来推理问题中的条件,根据推测出的条件和真实条件的一致性来判断推理的正确性(RCoT、FOBAR、Self-Verification)。 4.3.2 基于问题分解 模型直接回答复杂问题是十分具有挑战性的,而回答简单问题则得心应手。因此将问题分解成子问题显式地一步步解决是一类有效的方法。 Least-to-Most 使用了自顶向下的问题分解策略,首先将问题一次性分解成若干子问题,之后逐个解决从而得到最终的答案;Successive Prompting 采取了一种迭代分解策略,每轮迭代分解一个子问题并解答,并使用其促进后续的问题分解和回答;Decomposed Prompting 采取模块化设计,对不同类型的子问题设计专属模块负责解答,提高了子问题解答的准确性。此外,BINDER 采取神经符号的方式,通过程序执行得到最终答案;DATER 则关注表格推理的问题分解,需要同时考虑问题和表格的分解。 4.3.3 基于外源知识模型内部存储的知识在预训练结束后便会定格,无法获取新的知识,导致知识的匮乏和过时。从维基百科、知识库、词典等途径引入外源知识,能够一定程度缓解这个问题。Chain-of-Knowledge 从知识库中获取结构化知识进行知识指导的推理,并且根据结构化知识对推理链条的真实性和可信性进行验证。KD-CoT 将多跳推理转化为多轮问答形式,在每轮问答中检索相关的事实知识辅助问答。 4.3.4 基于排序或投票由于语言模型是基于概率采样的,在生成文本时会具有一定的随机性,通过多次采样并对采样结果进行集成,可以有效地缓解这个现象,并显著提高推理的性能。一些工作在推理链条或答案层级进行粗粒度的集成,例如 Self-Consistency、Complex CoT、Verifiers。这种集成粒度过粗没有考虑到推理步骤,为此另一些工作考虑到了中间推理步骤进行细粒度的集成,例如 Self-Check、GRACE。除了通过概率进行采样外,Diversity-of-Thought 通过不同的提示文本来采样多跳推理路径。总的来说,基于多次采样的策略已经成为当前思维链推理中常用的技术。 4.3.5 效率提升尽管思维链推理已经展现出卓越的性能,其推理速度慢、使用开销大仍是不可忽视的问题。目前工作从减少推理链条标注成本、加快推理时解码速度和降低推理时的多次采样次数开销入手。 05 思维链前沿应用 5.1 工具使用 虽然大模型具有非常强大的知识水平,其依然缺乏对于时效性内容以及领域外知识的更新能力,并且语言模型在数学计算、符号推理上也较为薄弱,在遇到这些问题时往往会产生幻觉现象。 为此,许多方法探究如何使用外部工具对 LLM 进行增强,通过提示或微调等方式引入使用工具(调用 API)的能力。网页和知识库检索能够让模型获取最新的外部知识,数学计算器与程序执行可以用以处理更为复杂的计算问题,调用其他模型能够获得其他模态(图像、视频、语音)的理解以及生成能力,甚至是与外部环境进行感知与交互,实现具身智能。思维链推理在工具增强方法中起到了非常重要的作用。大多数情况下,模型对于工具调用的需求是隐含的。工具提高了大模型在单步“动作”下的处理能力,而思维链赋予了模型在推理过程中对于问题的分解,工具使用形式的思考以及工具调用结果的追踪处理能力。 5.2 决策规划 思维链提供了一种将问题分解为链式子问题的形式,从而处理较为复杂的问题。然而,对于更为复杂的任务,链式的分解形式并不充分。在前文中,我们介绍了将链式推理拓展到树结构、图结构等形式的工作。 除此之外,LLM+P,LLM+DP 等工作将问题分解为规划领域定义语言(Planning Domain Definition Language, PDDL)的形式,通过外部模块对过程进行规划调度,最终再转换回自然语言形式用 LLM 进行处理。这些方式都提供了更为灵活的分解以及调度过程,增强模型的规划能力。 在长期规划中,模型产生的错误会进行累积。并且在执行过程中可能会遇到计划外的错误,不断进行重试也无法得到正确的结果。因此需要提高模型在推理过程中对错误处理、总结,以及对计划更新的能力。Self-Refine  能够让模型对结果进行自我反馈以及优化,而  Reflexion  在此基础上加入长短期记忆,根据历史经验进行决策。AdaPlanner 等工作则能够根据环境反馈优化规划过程,提高灵活性。规划增强的方法可以与工具增强、多智能体等方法进行结合,进一步增强大模型在复杂问题上的处理能力。 5.3 思维链蒸馏 思维链被视为大模型的一种涌现能力,然而,这种能力在一些规模较小的模型上并不是很显著,限制了小模型在推理时的表现。 当模型具备一定的思维链能力时,可以通过自监督与自我迭代的方法对推理能力进行强化,例如 LMSI,STaR 等。 但大多数情况下,小模型的思维链能力较弱,难以输出可靠的推理过程进行自我蒸馏。此时需要依靠具有较强思维链能力的大模型输出推理链条,再蒸馏给小模型,从而让小模型也获得一定的推理能力。一般来说,蒸馏时需要对数据进行筛选,有答案标签的情况下可以通过标注筛选出结果正确的推理过程,而在没有标注时也能通过 self-consistency  等方式投票得出较为可靠的答案。 除了推理结果的正确性外,推理过程的多样性对于蒸馏的效果也非常重要。SCoTD 发现针对每个样本采样多种推理路径能提高小模型的推理性能,SCOTT 通过对比解码和反事实推理等方式进一步提升思维链质量,缓解小模型学习到推理过程“捷径”的问题。 思维链的形式也会影响小模型的学习效果。DialCoT 将思维链过程拆解为多轮对话的形式,简化小模型的学习难度。MWPCoT 和 PlanningToken 等工作则在数学推理过程中引入高层次的信息表示,提高模型在推理过程中的一致性以及在不同问题上的泛化性。不过需要注意的是,模型在多维度能力上存在着非常复杂的权衡。虽然通过蒸馏和微调的方式可以提高小模型在专一领域的推理能力,这个过程同时会损害模型在其他通用领域的性能(Specializing-Smaller-LM)。 06 思维链未来研究方向 6.1 多模态思维链推理目前的多模态思维链推理主要集中在图文领域,使用小模型进行微调,尚处于早期研究阶段。基于视觉-文本基座大模型和视频推理任务上存在着很大的探索空间。 6.2 可信思维链推理 | 减少大模型幻觉基于大语言模型的思维链推理存在幻觉,如何减少幻觉,实现可信思维链推理是潜在的研究方向。 6.3 思维链理论思维链有着惊人的性能,但其背后的原理和能力边界仍处于未知状态。从理论上探究思维链的能力来源、能力边界以及其相较于上下文学习的优点,可以更好地指导并促进思维链应用。
  • 《大模型爆火的当下,舆情大模型进展如何?》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-09-30
    • 数据科技圈从来不缺概念,缺的是概念的落地。从“云计算、大数据、人工智能、AI、算力、元宇宙、到如今的“大模型”,概念是一个接着一个的迭代。其实每家的核心技术也都和之前差不多,只是顺应行业发展的不同阶段而变换不同的产品名称。就像春夏秋冬总得换件不一样的衣服一样,保暖的同时顺便炫耀炫耀,炒概念已经变成了资本和各个企业的战略风向标。电商行业大模型、出行行业大模型、金融行业大模型、支付行业大模型、语音识别行业大模型······各个行业的大模型层出不穷。也都在带领着各自的行业进行一个全新的发展阶段、全新的场景落地阶段、也是全新的技术突破阶段。大模型具优点:处理大规模数据能力强+处理复杂问题能力强+具有更高的准确率和性能。 舆情行业或者叫舆情数据行业,拥有着得天独厚的数据优势,与上述大模型优点完全契合。拥有全网所有公开平台的媒体、网民的发帖信息。即所有报纸、门户网站、论坛贴吧、BBS、短视频、长视频、音频、APP、微博、公众号等全网新闻和社交信息。庞大又复杂的结构化和非机构化数据,形成了最最基础也是最最核心的数据资源,为大模型训练提供了最充足的数据要素,从而训练出来的大模型也最具有稳定性、高性能、精准性等。优化之后的模型应该更成熟、更完善,落地的场景会更多样化。 当下,舆情行业哪些厂商已经开始布局大模型的概念呢? 7月8日。上海企业蜜度在2023世界人工智能大会上发布了“蜜巢”智能舆情分析大语言模型。输入关键词后,它能在2分钟左右自动生成相关新闻的《热点速报》,包含事件概况、数据概况、舆论观点、研判建议4个板块,有望成为政府和相关企事业单位的得力助手。  9月26日,北京企业拓尔思在中关村技术交易与推广推介对接活动——新技术新产品首发推介(人工智能与集成电路)专场上,拓尔思拓天舆情大模型正式发布。 截止目前仅有2家企业在公开上线发布了舆情大模型,其他企业都还未进行相关的品牌漏出和市场宣传。那么舆情数据行业可以有哪些大模型场景呢? 1、消费者画像舆情大模型。该模型可以分出消费者对于品牌的喜好程度、产品的喜好程度(原材料、制作工艺、价格、运输等各环节的评价信息)、产品口味的偏好程度、企业价值的喜好程度、产品售后服务的满意程度等。从而形成品牌用户的核心画像大模型,为企业收集消费者的建议与反馈,反哺企业运营调整与市场健康发展。 2、网民发帖习惯舆情大模型。该模型可以精准分析网民针对不同舆情事件、社会话题的发帖习惯、讨论习惯、联想习惯、转发习惯等等,精准分析和预测未来类似舆论发生后,可能的传播趋势走势、传播观点等,更高效的帮助政府做好社会维稳、区域治理。为企业提供有价值的危机公关预防策略。 3、互联网事件舆情大模型。该模型自带历史N年舆论事件分析库,将按照年份、行业、舆论方向、二次舆论、反转舆论等多维度聚合互联网舆论事件。形成国内权威的舆情智库。为科研机构、高校、新闻传播行业、文本分析行业、公关行业、营销策划行业等提供充足且权威的历史经验借鉴。让舆情不再孤独的沉寂在互联网历史的海洋中,让历史事件的舆情经验效益和社会效益最大化。 4、媒体画像舆情大模型。通过媒体历史多年的报道新闻,利用舆情大模型分析出哪类媒体报道话题的偏好;针对不同行业的客户,媒体的发帖策略、发帖的侧重点、攻击的侧重点、以及揭露新闻事实重要程度等。构建全方位定位媒体标签体系,形成强大的媒体画像大模型。为未来的高效的媒体沟通、真诚沟通、承担企业的社会责任而形成健全的价值参考模型。 5、医药行业舆情大模型。通过分析行业上下游医院、医生、患者、竞品、行业监管部门等全方位信息,形成自身潜在风险提示大模型。同时依据医药行业的竞品新品上市挖掘、专利过期风险提示、药品通过认证、战略合作、捐助捐赠等全方位情报信息为自身提供权威且具有参考意义的舆情决策大模型。【由此各个行业舆情大模型都可以场景化落地】 舆情大模型场景太多了,金融、零售、制造、明星、影视、连锁餐饮等行业都可以包装成细化的大模型。但如此具有数据话语权的舆情行业为何迟迟没有大范围的炒大模型概念呢?推测原因有如下几点: 1、敏感性。舆情大模型很火爆,但内容很敏感。毕竟舆情这个字眼本身就是舆情,难不成我们要明目张胆的告诉消费者我们在全天的监测他们的网络发帖吗?我们能宣告每一次的舆论危机背后都是舆情公司在帮助企业公关部门做辅助新闻信息分析吗?显而易见,答案是否定的。 2、合规性。作为一直隐藏在服务企业市场的背后技术厂商,舆情技术公司从来都很小心翼翼,生怕舆情概念太火,引发不必要的结果。毕竟国内还并没有完全公开承认舆情数据的合法化和市场化。舆情数据采集上也只能依照目前仅有的类似的一些技术标准和一些政策文件进行合规性参照。 3、战略性。或许很多企业都在闷声发大财或是闭门造车。还未意识到应该搭上大模型这趟后疫情时代的首趟列车去宣传、去融资。已经四五年没有听到舆情行业融资的喜讯了。如何更有力的向资方要钱应该是企业掌舵者应该考虑的方向之一。 4、人才性。品牌总监岗位在各个招聘网站的年度人才岗位分析上都是最稀缺岗位之一。品牌总监的专业性对一个企业品牌的阶段性发展作用起着至关重要的影响力,所以舆情企业的品牌总监的稀缺性也是目前的行业现状。舆情这个细分大数据赛道,池子规模显而易见。说白了底层核心技术就一个爬虫,外加中间层一个NLP技术。理论上多大的池子造多大的浪,但经过包装后,这浪可就有可能是海啸了。所以说,技术只是核心立足之本,但名气可就是包装出来了,包装能力才是装B能力。