《ChatGPT群聊可以帮助团队将AI纳入日常计划》

  • 编译者: 高楠
  • 发布时间:2025-12-02
  • OpenAI在ChatGPT中引入了群聊,让人们可以与聊天机器人进行多达20人的共享对话。在本月早些时候进行了短暂的试点后,该功能现在可供所有登录用户使用,它将ChatGPT从一对一的工具转变为支持小组协作的工具。

    OpenAI将此次更新描述为一种与朋友、家人或同事一起计划日常任务的简单方法,比如安排晚餐、准备旅行或一起起草大纲。但是,对于已经使用ChatGPT进行头脑风暴、研究和早期项目讨论的工作团队来说,该功能可能具有更广泛的价值。

    该功能如何工作


    当您选择ChatGPT应用程序右上角的“人员”图标时,群聊开始。该应用程序通过复制您当前的对话来创建一个新的共享空间,您可以通过发送链接来邀请其他人。该链接可以再次共享,使人们能够让更多的参与者参与讨论。

    用户第一次加入或创建群聊时,ChatGPT会要求他们设置姓名、用户名和个人资料照片,以便群聊可以识别谁在说话。OpenAI表示,ChatGPT已经过训练,可以“跟上对话的节奏”,决定何时回应,何时保持沉默。如果有人想让ChatGPT直接添加内容,他们可以在消息中提到“ChatGPT”。该模型还可以使用表情符号做出反应,并在创建个性化图像时使用个人资料照片。

    屏幕右上角的设置面板允许用户添加或删除人员、静音通知或向ChatGPT提供自定义说明。OpenAI表示,该模型不会在群组对话中使用个人聊天的记忆,也不会根据群组活动创建新的记忆。

    群聊在GPT-5.1 Auto上运行,它根据提示和用户可用的选项选择响应模式。速率限制仅在ChatGPT发送消息时适用。此次推出是在GPT-5.1 Instant和Thinking模型最近发布之后,以及早些时候推出的Sora,一款用于创建短视频的社交应用程序。

    群聊如何支持真正的协作


    虽然消费者的推销侧重于随意的计划,但公司面临的许多挑战源于人们如何分享想法、审查草稿和协调不同的角色。群聊可以通过为团队提供一个在循环中与ChatGPT对话的单一空间来帮助减少一些摩擦。

    协调跨职能团队

    大型组织致力于保持产品、设计、工程和营销团队的一致性,尤其是在项目开始时。早期的想法可以分散在电子邮件和聊天应用程序中。

    在群聊中,每个人都可以在一个地方做出贡献。如果有人迟到或错过了讨论的一部分,ChatGPT可以总结话题,确定悬而未决的问题,或帮助将小组的笔记转化为结构化的计划。这有助于团队在不失去背景的情况下从早期辩论转向行动。

    更顺畅的审核周期

    草稿通常会经历漫长的审查循环,涉及不同的人使用不同的渠道。评论在不同的时间出现,很难追踪哪个版本是当前版本。

    在群聊中,团队可以一起对同一个草稿做出反应。ChatGPT可以重写段落、比较替代版本或帮助澄清反馈,这可能会加快处理紧迫截止日期或频繁更新的团队的工作。

    加快新队友的入职流程

    加入有几个月历史的项目的新团队成员必须花时间追踪旧消息和文件,以了解决策是如何做出的。经理可以在现有的群聊中添加一个新的队友,并要求ChatGPT总结过去的讨论,突出显示关键选择,并显示哪些任务仍然开放,从而减少入职所需的时间。

    协调共享任务

    日常协调——比如准备内部研讨会、起草客户电子邮件或计划活动——往往会因持续数天的来回消息而减慢速度。在群聊中,任何人都可以要求ChatGPT创建日程表、重写消息、构建清单或比较选项。然后,该小组可以一起调整细节,而无需每次从头开始。

    组织创造性反馈

    当反馈以混乱或冲突的形式出现时,创造性工作可能会停滞不前。设计师、作家和分析师经常收到来自不同渠道的评论。群聊将所有反馈保存在一个地方。ChatGPT可以将评论分组到主题中,指出矛盾,或提出反映团队需求的草稿。这有助于减少返工,并引导团队朝着共同的方向前进。


    团队使用ChatGPT的方式发生了更广泛的转变

    群聊的引入正值许多公司正在测试将人工智能带入其工作流程的方法之际。ChatGPT已经帮助许多用户起草、总结和修改工作。为团队提供共享空间可能会改变早期项目对话的形成方式,特别是对于尝试人工智能支持的规划和审查的组织。

    该功能不会取代人工协调,但它引入了一个共享界面,人们可以在这里相互交谈,并在需要时将ChatGPT纳入讨论。对于处理分散输入、缓慢评论或快速上下文切换的团队来说,群聊可能提供了一种更简单的方法来保持项目的进展。





相关报告
  • 《ChatGPT和生成AI对科研意味着什么?》

    • 来源专题:科技期刊发展智库
    • 编译者:孟美任
    • 发布时间:2023-03-31
    • 2022年12月,计算生物学家Casey Greene和 Milton Pividori开展了一项实验:他们邀请一名非科学家助理润色了三篇研究论文。该助理在几秒钟内就修改完成,每篇论文大约用了五分钟审阅完成。在一份生物学论文中,该助手还发现了公式参考文献的错误。除了实验过程存在些许不顺利,但论文最终的可读性更强,并且每篇论文成本不到0.50 美元。Greene 和Pividori 在2023 年1 月23 日的预印本论文中表示,该助理不是一个人,而是一种名为GPT-3的人工智能算法,该算法于2020 年首次发布。它是一种生成式人工智能聊天机器人工具,无论是创作散文、诗歌、计算机编程,还是编辑研究论文都非常擅长。 这类工具也被称为大型语言模型(Large Language Models, LLM),其中最有名的是GPT-3的一个衍生版本——ChatGPT。由于其免费且易于访问,在2022年11月发布后一举成名。 美国宾夕法尼亚大学的Pividori表示,此类工具将帮助我们提高研究人员的工作效率。 其他科学家表示,他们现在经常使用大型语言模型,不仅用于修改论文,还用于编写、检查代码等工作。冰岛大学计算机科学家Hafsteinn Einarsson表示,每天都使用大型语言模型,最早使用的是GPT-3,后来改用ChatGPT辅助编写PPT、改学生试卷和课程作业,还能将学生作为转为学术论文。此外,许多人将其作为数字秘书或助理。 但LLM也引发了广泛的讨论,包括回答内容的真实性、用AI生成内容冒充自己的创作等。《自然》采访科研人员有关聊天机器人(如ChatGPT)的潜在用途(尤其在科学领域)时,他们兴奋中夹杂着忧虑。科罗拉多大学医学院的Greene表示,如果相信这项技术具有变革的潜力,那么必须对此感到紧张。科研人员认为,很多方面都将取决于未来的监管指南对 AI 对话机器人的使用限制。 (1)流畅但不真实 有学者认为,大型语言模型很适合用来提高写论文或写基金的效率,但需要严格把关。伦敦软件咨询公司InstaDeep的工程师表示,大型语言模型就像一个进阶版的Stack Overflow(一个程序员互问互答的热门论坛),每天都可以用来写代码。 与此同时,研究人员强调,大型语言模型给出的回答从根本上说是不可靠的,有时候还是错的。这种不可靠已经深入大型语言模型的构建方式。ChatGPT和它的竞争对手都是通过学习庞大在线文本数据库中的语言统计模式来运作的,这些文本中不乏谣言、偏见和已经过时的信息。当大型语言模型接到提示(即 prompt,如Greene等使用精心组织的语言提出重写论文部分章节的要求)后,它们会一字一句地吐出看上去符合语言习惯的任何回复,只要能让对话继续下去。结果就是大型语言模型很容易给出错误或误导人的信息,尤其是那些训练数据很有限的技术性话题。还有一点是大型语言模型无法给出准确的信息来源。如果你让它写论文,它会把参考文献给你编出来。《自然-机器智能》在2023年1月发表的一篇关于ChatGPT的社论中写道,这个工具在事实核查或提供可靠参考文献方面是不能被信任的。 如果研究人员有足够专业知识发现问题或能很容易验证答案对错,比如他们能判断某个解释或对代码的建议是否正确,那么ChatGPT和其他大型语言模型就能成为真正意义上的助手。不过,这些工具可能会误导一些初级用户。如2022年12月,Stack Overflow临时禁用了ChatGPT,因为管理者发现一些用户上传了大量由大型语言模型生成的回答,错误率很高。 (2)缺陷如何解决? 有些搜索引擎工具能解决大型语言模型在来源引用上的不足,例如面向科研人员的 Elicit能先根据提问搜索相关参考文献,再对搜索引擎找到的各个网站或文献进行概括归纳,生成看上去全带参考来源的内容(但是大型语言模型对不同文献的归纳仍有可能不准确)。 一些科研人员表示,目前来看,ChatGPT在技术性话题上还没有足够且专业的训练数据,所以用处并不大。哈佛大学的生物统计学博士生应用ChatGPT后表示其很难达到所需的专业水平。 一些科技公司开始使用专业的科研文献训练对话机器人。2022年11月,科技巨头Meta 发布了名为Galactica的大型语言模型,用学术摘要进行训练,有望在生成学术内容和回答科研问题方面具备一技之长。但是,其测试版在被用户拿来生成不准确和种族歧视的内容后即被下架(但代码依旧公开)。 (3)安全与责任 如果不对输出内容进行把控,大型语言模型就能被用来生成仇恨言论和垃圾信息,以及训练数据中可能存在种族歧视、性别歧视等其他有害联想。OpenAI在决定公开发布 ChatGPT时,曾试图回避很多这些问题。OpenAI让ChatGPT 的信息库截至到 2021 年为止,不让它浏览互联网,还通过安装过滤器防止 ChatGPT 对敏感或恶意的提示做出回应。不过,做到这一点需要人类管理员对庞杂的有害文本进行人工标记。 一个学术团队发布了另一个名叫 BLOOM 的大型语言模型。该团队试着用更少的精选多语言文本库来训练这个机器人。该团队还把它的训练数据完全公开。研究人员呼吁大型科技公司参照这种做法,但目前不清楚这些公司是否愿意。 还有一些研究人员认为学术界应该完全拒绝支持商用化的大型语言模型。除了偏见、安全顾虑和劳动剥削等问题,这些计算密集型算法还需要大量精力来训练,引发人们对它们生态足迹的关注。进一步的担忧还包括把思考过程交给自动化聊天机器,研究人员可能会丧失表达个人想法的能力。 另一个不明确的问题是一些大型语言模型的法律状态,这些大型语言模型是用网上摘录内容训练的,有些内容的权限处于灰色地带。版权法和许可法目前只针对像素、文本和软件的直接复制,但不限于对它们风格上的模仿。当这些由 AI 生成的模仿内容是通过输入原版内容来训练的,问题也随之而来。 (4)强制诚信使用 因此,一些研究人员相信,给这些工具设立边界可能十分必要。当前关于歧视和偏见的法律(以及对 AI 恶意用途实施有计划的监管)有助于维护大型语言模型使用的诚信、透明、公正。与此同时,人们也在倡导大型语言模型的使用需要更透明的披露。学术出版机构(包括《自然》的出版商)已经表示,科研人员应当在论文中披露大型语言模型的使用。《科学》则更进一步,要求所有论文中都不得使用ChatGPT 或其他任何 AI 工具生成的文本。 这里有一个关键的技术问题:AI 生成的内容是否能被发现。许多科研人员正在进行这方面的研究,核心思路是让大型语言模型自己去“揪” AI 生成的文本。 2022 年 12 月,美国普林斯顿大学的计算机科学研究生Edward Tian推出了GPTZero,这是一个 AI 检测工具,能从困惑度和突发性两个角度分析文本。OpenAI 本身已推出了 GPT-2 的检测器,并在 今年1月发布了另一个检测工具。不过,这些工具中还没有哪个敢自称绝不出错,尤其是在 AI 生成的文本经过人工编辑的情况下。OpenAI表示,在测试中,其最新工具将人类写的文本误判为 AI 生成文本的错误率为 9%,而且只能正确辨认出 26%的 AI 生成文本。 与此同时,大型语言模型的开发者正在构建更大型的数据集,打造更智能的聊天机器人(OpenAI 拟在今年推出 GPT-4),包括专门面向学术或医疗领域的机器人。2022 年12 月底,谷歌和 DeepMind 发布了一篇预印本论文,提前预告了名为 Med-PaLM 的临床专业大型语言模型。这个工具可以回答一些开放式的医学问题,水平与普通人类医师相当,但仍有缺陷和不可靠的问题。美国加州斯克利普斯研究所主任 Eric Topol 表示,他希望将来整合了大型语言模型功能的 AI 能将全身扫描与学术文献中的内容进行交叉验证,帮助诊断癌症,甚至理解癌症。但他强调,这一切都需要专业人士的监督。 生成式 AI 背后的计算机科学发展迅速,基本每个月都会有新成果。研究人员如何使用这些工具不仅决定了它们的未来,也决定了人类的未来。 参考文献:1. Nature Portfolio. ChatGPT与科研:革新与隐患共存| 《自然》长文. https://mp.weixin.qq.com/s/qHYbDfDY8S47mXK65TsF_A. 2. Pividori, M. & Greene, C. S. Preprint at bioRxiv https://doi.org/10.1101/2023.01.21.525030 (2023). 3. GPT, Osmanovic Thunstr?m, A. & Steingrimsson, S. Preprint at HAL https://hal.science/hal-03701250 (2022). 4. Nature Mach. Intell. 5, 1 (2023). 5. Glaese, A. et al. Preprint at https://arxiv.org/abs/2209.14375 (2022). 6. Thorp, H. H. Science379, 313 (2023). 7. Kirchenbauer, J. et al. Preprint at https://arxiv.org/abs/2301.10226 (2023). 8. Singhal, K. et al. Preprint at https://arxiv.org/abs/2212.13138 (2022).
  • 《将遗传多样性纳入气候变化适应计划》

    • 来源专题:农业立体污染防治
    • 编译者:金慧敏
    • 发布时间:2015-11-30
    • 2015年11月24日,粮农组织发布世界遗传资源保护和利用新准则《支持将遗传多样性纳入国家适应气候变化规划的自愿准则》(以下简称为准则)。帮助各国在气候变化条件下更好地保护和可持续利用遗传资源。该准则旨在确保粮食和农业遗传资源成为有关气候变化适应措施方面国家计划的一部分。 《准则》指出应对气候变化对于实现世界不断增长人口可持续未来至关重要,必须把粮食安全作为这方面工作的核心。气候变化是造成生物多样性丧失的主要因素之一。气候变化给粮食和农业植物遗传资源各部分(植物、动物、森林、水生资源、无脊椎动物、微生物)带来的压力和风险是多方面的。然而,粮食和农业遗传资源还将在减缓和适应气候变化影响、支持实现粮食安全和营养目标的工作中发挥重要作用。 《准则》是在粮农组织政府间粮食和农业遗传资源委员会(遗传委)指导下编制的。改准则是一份自愿性文书,可帮助各国开展能够确保有效适应的相关举措和活动。各国可根据其制定和实施适应计划的进展程度,选择下一步应开展哪些举措和活动。 《准则》详细描述了将粮食和农业遗传资源纳入国家适应规划的4要点与步骤。四大要点包括:A、奠定基础并弥补差距 B、制定筹备框架 C、制定实施战略 D、监测、审查、报告与沟通进展。文章详尽介绍了每一要点所要执行的步骤,不同步骤所要开展的主要活动。 详细准则内容可点击以下链接查阅:http://www.fao.org/documents/card/en/c/3a17c5d8-34dc-4396-a489-6472985e64c5/ 目前尚无一种统一的方法将农业生物多样性纳入气候变化适应战略的规划工作。该《准则》旨在填补此空白。它们将协助各国解决在制定和更新其“国家适应计划”过程中遇到的遗传资源问题。通过“将农业纳入国家适应计划方案”,粮农组织和联合国开发计划署将与尼泊尔、肯尼亚、菲律宾、泰国、乌干达、乌拉圭、越南和赞比亚等国主管环境和农业的各部委合作,将农业部门纳入“国家适应计划”,以维护生计,扩大农业生产和促进粮食安全。根据此项为期四年的计划,上述国家将获得不同类型的支持。粮农组织将提供政策咨询和技术支持,以确保将农林渔各部门的气候变化适应重点纳入该规划过程。开发计划署将帮助各国管理气候风险,规划和预算编制,并帮助他们加强信息系统、项目编制和政府机构之间的协调。针对国家需求制定解决方案,例如: 在尼泊尔,有必要通过采用节水型耕作方式和促进作物多样化来加强抗旱作物品种的保护。去年地震造成的后果凸显了帮助农民减少气候和灾害风险的重要性。 在乌干达,开发计划署正在帮助建立急需的气候风险预警系统。该方案将与粮农组织的项目结合在一起,包括教授农民使用耐旱种子、植物和树木,以及扩大烧炭用途的桉树人工林。 粮农组织和联合国开发计划署还将扩大在菲律宾的工作,针对气候变化造成的粮食不安全易受害状况进行绘图,并探讨如何加强农业社区的风险转移机制。 在乌拉圭,恢复退化牧场和沿海脆弱生态系统的工作将成为新方案的核心。 随着该方案的推进,粮农组织和联合国开发计划署拟将此项工作扩展到其他国家。