《为什么我不担心 ChatGPT 会取代我成为生物教科书作者?》

  • 来源专题:科技期刊发展智库
  • 编译者: 王传清
  • 发布时间:2024-01-02
  •   我刚刚第一次使用 ChatGPT。起初,我对自己的未来感到担忧,因为聊天机器人几乎是即时回答了我对自己领域——遗传学——中越来越晦涩难懂的术语的咨询。不过,搞定这个人工智能工具只花了大约 10 分钟。

      ChatGPT 于 2022年11月30 日由 OpenAI/微软发布。“Chat Generative Pre-trained Transformer ”有点像打了类固醇的谷歌(Google)。但在短暂的接触之后,我不禁怀疑它是否能处理人类思维的细微差别、语境、幽默和创造力。它能取代我成为教科书作者吗?

      我的职业生涯

      我撰写生命科学书籍已经有很长一段时间了。我最喜欢的一直是《人类遗传学:概念与应用》,第一版于 1994 年出版,正值人类基因组测序时代的黎明。本周,麦格劳-希尔公司(McGraw-Hill)出版了第 14 版。一次修订需要两年时间,其中一年用于更新内容和处理审稿人的建议,另一年用于 "制作",从校对到最终定稿。然后,休息一年。

      随着遗传学演变为基因组学,人工智能介入其中,将比较基因组学的组合信息分层到 DNA 序列上。在数据集上进行训练,然后搜索模式,可用于推断描述物种关系的进化树、祖先测试和鉴证,以及识别癌症扩散时出现的突变序列。

      ChatGPT 最近才推出,我还没有在修订新版图书时使用过,但我现在很好奇。我可以想象它输出定义的样子,但教科书远不止“内容”这么简单。人类作者增加了视角、经验,也许还增加了知识,这些都是 ChatGPT 可以从互联网上提取的。

      遗传学教科书与生成式人工智能

      遗传学研究可以展开和提取成堆的信息、数百万甚至数十亿的数据点。在已知致病基因的 DNA 序列上训练算法,然后在其他个体的细胞中搜索相同或高度相似的序列,以协助诊断。

      这种可以改写教科书的人工智能被称为生成式(GPT中的G)。它可以学习“训练”数据的模式和结构,并生成类似的新数据组合,生成文本、图像或其他媒体。

      那么 ChatGPT 能写出像我这样的教科书吗?我不这么认为。

      我可以想象,生成式人工智能可以写出类似流行作家科琳-胡佛(Colleen Hoover)的小说。事实上,很久以前,我曾在《Playgirl》上发表过一篇奇幻作品,当时我列举了类似文章中的单词和短语,并创造了一个全新的场景。故事涉及印第安纳州乡村的一场龙卷风和一辆手推车。

      就像科琳-胡佛的小说和《Playgirl》的幻想一样,教科书也具有非常独特的风格。但教科书的内容远不止每章的单一叙述。在编写过程中,还需要选择照片、设计插图、制作教学工具——问题、摘要、参考资料、盒装阅读材料。下面是教科书出版的简史,然后是我认为人工智能可能无法像人类作者那样出色完成的工作。

      生命科学教科书的演变

      我的第一本教科书《生命》是生物学入门教材,与凯斯-理查兹(Keith Richards)的同名自传并不相称。那时,销售代表们为了提高市场占有率,可谓是 “全副武装”——试题库、教师手册、案例练习册。如今,情况大不相同!电子教科书嵌入了“自适应学习” 的多项选择题。学习者(曾被称为学生)会收到即时反馈,了解每个错误选项的原因。

      每个版本都有新的字体、设计元素和调色板,以使新版本显得与众不同,因为有些主题——有丝分裂、孟德尔、DNA——是不会改变的。大部头书被拆分成更短的版本,就像崩解的冰山一样。

      最早的电子书可以追溯到 20 世纪 90 年代。现在,大学学费中包含了电子教科书的限时授权费。“E”也可以代表“昙花一现”(ephemeral)。

      在我的第14版新书中,一家公司用“DEI”(多样性、公平性和包容性)的视角仔细检查了我所写的一切。我在这里讲述了发现自己失误的经过。

      由于传统教科书价格昂贵,偶尔也会出现人们试图取代传统教科书的努力。但是,根据网上材料或讲义和试题拼凑出一门课程所花费的时间和精力,可能比大多数潜在作者能意识到的要多得多。而且,几年前出现的免费在线教科书缺乏学术出版商所提供的编辑和审稿人审查。

      编写教科书的一项不太明显的技巧是与生俱来的写作天赋。风格的要素是微妙的。有多少学者或 ChatGPT 会将被动语态改为主动语态?改写以省略“there are”和其他冗余?避免过度用词?改变句子和段落的长度?将材料组织成符合逻辑的 A、B 和 C 标题?

      人工智能能否模仿人类的创造力?

      人工智能可以快速组装一个列出 DNA 复制酶的表格或编制技术时间表。但是,训练有素的算法如何模仿作者对例子的选择,或根据对遗传疾病患者的亲身访谈编写案例研究?

      人工智能会改进我的干细胞比喻吗?

      “干细胞和祖细胞之间的区别,就好比大学新生在选择专业时会考虑很多专业,而大三学生在选择课程时则会更加专注。对细胞进行重新编程就好比大四学生决定转专业。法语专业的学生如果想成为工程师,就必须从头开始,选修完全不同的课程。但是,生物专业的学生想成为化学专业的学生,就不需要从头开始,因为这两个专业有许多相同的课程。干细胞也是如此。”

      那么教学法呢?人工智能可以重现填空题或选择题。但它能创造出我的批判性思维练习,即三种SARS-CoV-2变体的维恩图,其中有一些共同的突变吗?我要求读者运用遗传密码规则来预测哪些变化最有可能威胁公众健康。

      我试图让我的问题变得有趣。

      ChatGPT 会根据《星际迷航》中铁蒺藜的毛发遗传情况提出章末问题吗?追踪《综合医院》中一个家族的罕见血型?为SORAS(肥皂剧快速衰老综合症)——《青春无敌》(The Young and the Restless)中纽曼家族的一种病症——建立血统?

      在“进化”一章中继续借用科幻小说,要求学习者找出这些主题所说明的原理:

      在尼尔-史蒂芬森(Neal Stephenson)的《七十年代》(Seveneves)中,月球破碎了。两年后,碎片将撞向地球,使地球数百年无法居住。一些已经生活在巨大空间站上的人幸存下来,其他人被选中加入他们的行列。其他人则死于月球垃圾和高温的袭击。在太空中的 "云端方舟 "上,人类的数量不断减少,但最终在辅助生殖技术的帮助下,由七名幸存的女性重新孕育出婴儿。月球炸毁五千年后,准备居住在痊愈的地球上的人类数量已经恢复到 30 亿。(人口瓶颈)

      在《被诅咒的孩子》中,一个小镇上的所有女性都突然被来自另一个星球的基因相同的生物所受孕。(非随机交配)

      在迪恩-昆齐(Dean Koontzi)的《夺取》(The Taking)一书中,巨大的变异真菌几乎杀死了所有人,只有年幼的孩子和少数保护他们的成年人幸免于难。人类必须从幸存者中重建自己。(创始人效应)

      那么历史呢?人工智能可能很容易组合出年表。但它会将 1961 年马歇尔-尼伦伯格和海因里希-马特萨伊在“历史一瞥”盒装读物中破译遗传密码与卡塔林-卡里科和德鲁-魏斯曼发明第一种基于 mRNA 的疫苗结合起来吗?

      最后,人工智能能否使用幽默?它是否能在章节末尾提出这样一个关于法医 DNA 检测的问题:

      主人在垃圾桶里发现了猫鲁弗斯,它的身上布满了伤口和咬痕,爪子上还粘着一些灰色的皮毛,这些灰色的皮毛很像隔壁那只巨大猎犬“杀手”的皮毛。

      ChatGPT 重磅登场

      测试 ChatGPT 非常简单。

      它在返回晦涩的专业术语定义方面获得了 A+,如四色性(第四种锥状细胞增强的色觉)和染色体破碎(染色体破碎)。

      ChatGPT 准确地区分了基因治疗和基因编辑。该工具并没有将基因治疗过度简化为“替换”基因,而是返回“基因治疗涉及将新的或修改过的基因导入人体细胞,以纠正或替换有问题的基因或提供治疗功能”。这个定义涵盖了所有基础。

      我的新版教科书有一个方框阅读,介绍流感和 COVID 背后的病毒有何不同。同样,ChatGPT 返回的关于这两种病原体的信息比我想知道的还要多,既有比较也有对比。我可以想象学生会在作业中使用这个回答——我很高兴我的教授生涯已经结束了!

      ChatGPT 明确区分了癌症中的驱动基因突变和乘客基因突变,尽管我的教科书定义是从上下文开始的:“驾驶员将车开到目的地;乘客则是顺路”。

      ChatGPT 的免责声明写道:“虽然我们有保障措施,但 ChatGPT 可能会向您提供不准确的信息”。显然,它也有疏漏的时候,当我向它询问我写过的其他东西时,我发现了这一点:如何制作一个不可能的汉堡(Impossible Burger)。不仅仅是配料,还有这项杰出发明背后的生物技术。

      ChatGPT 的解释开头足够准确:

      “不可能汉堡是一种基于植物的汉堡肉饼,旨在模仿传统牛肉汉堡的味道和口感。虽然我无法获得 Impossible Foods 公司使用的确切配方或工艺,但我可以大致介绍一下像 Impossible Burger 这样的植物汉堡通常是如何制作的”。然后,它列出了制作超市中传统素食汉堡主题变体的一般步骤。但“不可能汉堡”与其他汉堡完全不同!

      尽管第一人称的回答具有人性化的效果,但这还不够好。

      ChatGPT 显然没有读过我 2019 年 5 月在 DNA Science 上发表的文章《剖析不可能的汉堡》(Anatomy of an Impossible Burger)。这是我能想到的最直截了当的标题了。

      我的资料来源?专利商标局数据库!只花了几分钟的搜索时间。该专利申请长达 52 页,是在多年的公开研究之后于 2017 年提交的。其中包括数以百计的相关专利和出版物,许多是在主流媒体上发表的。ChatGPT 找不到?

      该工具无法获得确切的配方或工艺?这种方法从基因上改变了酵母细胞,使其产生大豆版本的血红蛋白,称为“腿血红蛋白”(leghemoglobin),这种血红蛋白赋予了死牛肉的“口感”和外观。

      我不仅于 2019 年在博客上写过“不可能的汉堡”,三年前还在我的教科书第13版中发表过一个版本!

      不过,我对在 ChatGPT 雷达下飞行感到欣慰,而不是羞辱,因为很高兴知道我的技能组合还没有过时。虽然我在输入 ChatGPT 时遇到了问题。在早先的草稿中,我反复把它打成 GTP,也许是 DNA 核苷酸 GTP(三磷酸鸟苷)的意思。

相关报告
  • 《ChatGPT和生成AI对科研意味着什么?》

    • 来源专题:科技期刊发展智库
    • 编译者:孟美任
    • 发布时间:2023-03-31
    • 2022年12月,计算生物学家Casey Greene和 Milton Pividori开展了一项实验:他们邀请一名非科学家助理润色了三篇研究论文。该助理在几秒钟内就修改完成,每篇论文大约用了五分钟审阅完成。在一份生物学论文中,该助手还发现了公式参考文献的错误。除了实验过程存在些许不顺利,但论文最终的可读性更强,并且每篇论文成本不到0.50 美元。Greene 和Pividori 在2023 年1 月23 日的预印本论文中表示,该助理不是一个人,而是一种名为GPT-3的人工智能算法,该算法于2020 年首次发布。它是一种生成式人工智能聊天机器人工具,无论是创作散文、诗歌、计算机编程,还是编辑研究论文都非常擅长。 这类工具也被称为大型语言模型(Large Language Models, LLM),其中最有名的是GPT-3的一个衍生版本——ChatGPT。由于其免费且易于访问,在2022年11月发布后一举成名。 美国宾夕法尼亚大学的Pividori表示,此类工具将帮助我们提高研究人员的工作效率。 其他科学家表示,他们现在经常使用大型语言模型,不仅用于修改论文,还用于编写、检查代码等工作。冰岛大学计算机科学家Hafsteinn Einarsson表示,每天都使用大型语言模型,最早使用的是GPT-3,后来改用ChatGPT辅助编写PPT、改学生试卷和课程作业,还能将学生作为转为学术论文。此外,许多人将其作为数字秘书或助理。 但LLM也引发了广泛的讨论,包括回答内容的真实性、用AI生成内容冒充自己的创作等。《自然》采访科研人员有关聊天机器人(如ChatGPT)的潜在用途(尤其在科学领域)时,他们兴奋中夹杂着忧虑。科罗拉多大学医学院的Greene表示,如果相信这项技术具有变革的潜力,那么必须对此感到紧张。科研人员认为,很多方面都将取决于未来的监管指南对 AI 对话机器人的使用限制。 (1)流畅但不真实 有学者认为,大型语言模型很适合用来提高写论文或写基金的效率,但需要严格把关。伦敦软件咨询公司InstaDeep的工程师表示,大型语言模型就像一个进阶版的Stack Overflow(一个程序员互问互答的热门论坛),每天都可以用来写代码。 与此同时,研究人员强调,大型语言模型给出的回答从根本上说是不可靠的,有时候还是错的。这种不可靠已经深入大型语言模型的构建方式。ChatGPT和它的竞争对手都是通过学习庞大在线文本数据库中的语言统计模式来运作的,这些文本中不乏谣言、偏见和已经过时的信息。当大型语言模型接到提示(即 prompt,如Greene等使用精心组织的语言提出重写论文部分章节的要求)后,它们会一字一句地吐出看上去符合语言习惯的任何回复,只要能让对话继续下去。结果就是大型语言模型很容易给出错误或误导人的信息,尤其是那些训练数据很有限的技术性话题。还有一点是大型语言模型无法给出准确的信息来源。如果你让它写论文,它会把参考文献给你编出来。《自然-机器智能》在2023年1月发表的一篇关于ChatGPT的社论中写道,这个工具在事实核查或提供可靠参考文献方面是不能被信任的。 如果研究人员有足够专业知识发现问题或能很容易验证答案对错,比如他们能判断某个解释或对代码的建议是否正确,那么ChatGPT和其他大型语言模型就能成为真正意义上的助手。不过,这些工具可能会误导一些初级用户。如2022年12月,Stack Overflow临时禁用了ChatGPT,因为管理者发现一些用户上传了大量由大型语言模型生成的回答,错误率很高。 (2)缺陷如何解决? 有些搜索引擎工具能解决大型语言模型在来源引用上的不足,例如面向科研人员的 Elicit能先根据提问搜索相关参考文献,再对搜索引擎找到的各个网站或文献进行概括归纳,生成看上去全带参考来源的内容(但是大型语言模型对不同文献的归纳仍有可能不准确)。 一些科研人员表示,目前来看,ChatGPT在技术性话题上还没有足够且专业的训练数据,所以用处并不大。哈佛大学的生物统计学博士生应用ChatGPT后表示其很难达到所需的专业水平。 一些科技公司开始使用专业的科研文献训练对话机器人。2022年11月,科技巨头Meta 发布了名为Galactica的大型语言模型,用学术摘要进行训练,有望在生成学术内容和回答科研问题方面具备一技之长。但是,其测试版在被用户拿来生成不准确和种族歧视的内容后即被下架(但代码依旧公开)。 (3)安全与责任 如果不对输出内容进行把控,大型语言模型就能被用来生成仇恨言论和垃圾信息,以及训练数据中可能存在种族歧视、性别歧视等其他有害联想。OpenAI在决定公开发布 ChatGPT时,曾试图回避很多这些问题。OpenAI让ChatGPT 的信息库截至到 2021 年为止,不让它浏览互联网,还通过安装过滤器防止 ChatGPT 对敏感或恶意的提示做出回应。不过,做到这一点需要人类管理员对庞杂的有害文本进行人工标记。 一个学术团队发布了另一个名叫 BLOOM 的大型语言模型。该团队试着用更少的精选多语言文本库来训练这个机器人。该团队还把它的训练数据完全公开。研究人员呼吁大型科技公司参照这种做法,但目前不清楚这些公司是否愿意。 还有一些研究人员认为学术界应该完全拒绝支持商用化的大型语言模型。除了偏见、安全顾虑和劳动剥削等问题,这些计算密集型算法还需要大量精力来训练,引发人们对它们生态足迹的关注。进一步的担忧还包括把思考过程交给自动化聊天机器,研究人员可能会丧失表达个人想法的能力。 另一个不明确的问题是一些大型语言模型的法律状态,这些大型语言模型是用网上摘录内容训练的,有些内容的权限处于灰色地带。版权法和许可法目前只针对像素、文本和软件的直接复制,但不限于对它们风格上的模仿。当这些由 AI 生成的模仿内容是通过输入原版内容来训练的,问题也随之而来。 (4)强制诚信使用 因此,一些研究人员相信,给这些工具设立边界可能十分必要。当前关于歧视和偏见的法律(以及对 AI 恶意用途实施有计划的监管)有助于维护大型语言模型使用的诚信、透明、公正。与此同时,人们也在倡导大型语言模型的使用需要更透明的披露。学术出版机构(包括《自然》的出版商)已经表示,科研人员应当在论文中披露大型语言模型的使用。《科学》则更进一步,要求所有论文中都不得使用ChatGPT 或其他任何 AI 工具生成的文本。 这里有一个关键的技术问题:AI 生成的内容是否能被发现。许多科研人员正在进行这方面的研究,核心思路是让大型语言模型自己去“揪” AI 生成的文本。 2022 年 12 月,美国普林斯顿大学的计算机科学研究生Edward Tian推出了GPTZero,这是一个 AI 检测工具,能从困惑度和突发性两个角度分析文本。OpenAI 本身已推出了 GPT-2 的检测器,并在 今年1月发布了另一个检测工具。不过,这些工具中还没有哪个敢自称绝不出错,尤其是在 AI 生成的文本经过人工编辑的情况下。OpenAI表示,在测试中,其最新工具将人类写的文本误判为 AI 生成文本的错误率为 9%,而且只能正确辨认出 26%的 AI 生成文本。 与此同时,大型语言模型的开发者正在构建更大型的数据集,打造更智能的聊天机器人(OpenAI 拟在今年推出 GPT-4),包括专门面向学术或医疗领域的机器人。2022 年12 月底,谷歌和 DeepMind 发布了一篇预印本论文,提前预告了名为 Med-PaLM 的临床专业大型语言模型。这个工具可以回答一些开放式的医学问题,水平与普通人类医师相当,但仍有缺陷和不可靠的问题。美国加州斯克利普斯研究所主任 Eric Topol 表示,他希望将来整合了大型语言模型功能的 AI 能将全身扫描与学术文献中的内容进行交叉验证,帮助诊断癌症,甚至理解癌症。但他强调,这一切都需要专业人士的监督。 生成式 AI 背后的计算机科学发展迅速,基本每个月都会有新成果。研究人员如何使用这些工具不仅决定了它们的未来,也决定了人类的未来。 参考文献:1. Nature Portfolio. ChatGPT与科研:革新与隐患共存| 《自然》长文. https://mp.weixin.qq.com/s/qHYbDfDY8S47mXK65TsF_A. 2. Pividori, M. & Greene, C. S. Preprint at bioRxiv https://doi.org/10.1101/2023.01.21.525030 (2023). 3. GPT, Osmanovic Thunstr?m, A. & Steingrimsson, S. Preprint at HAL https://hal.science/hal-03701250 (2022). 4. Nature Mach. Intell. 5, 1 (2023). 5. Glaese, A. et al. Preprint at https://arxiv.org/abs/2209.14375 (2022). 6. Thorp, H. H. Science379, 313 (2023). 7. Kirchenbauer, J. et al. Preprint at https://arxiv.org/abs/2301.10226 (2023). 8. Singhal, K. et al. Preprint at https://arxiv.org/abs/2212.13138 (2022).
  • 《为什么碳回收可能是合成生物学的最高成就》

    • 来源专题:人类遗传资源和特殊生物资源流失
    • 编译者:yanyf@mail.las.ac.cn
    • 发布时间:2019-07-01
    • 地球正在升温。 去年,37.1千兆吨的二氧化碳被释放到大气中。每秒产生240万磅(或110万公斤)。虽然二氧化碳的升温潜能远远超过甲烷和碳氟化合物衍生物等其他化合物,但排放的碳量仍然令人不安。 偶然,碳也是生物学的关键。将简单的碳分子(如二氧化碳)转化为多碳化合物是生命,新陈代谢和进化的核心。在工业中,排放的碳气也可用于生产化学产品,而不是来自化石燃料和精炼石油。 然而,碳固定并不容易,解决这个问题需要大量投资,密集的生物学研究和创新方法。例如,低大气浓度的温室气体使它们极难捕获和再循环。二氧化碳在大气中仅占大约百万分之405,甲烷占百万分之二。 尽管大气中温室气体浓度较低,但自养生物 - 如漂浮在世界海洋中的大片蓝藻 - 可以利用阳光有效地将二氧化碳转化为食物和氧气。然而,固定碳的天然代谢途径通常依赖于缓慢或低效的酶,如RuBisCO。此外,生物学家对即使是最简单的生物体的基因和相互作用的蛋白质网络也有不完全的理解,混淆了我们重新接触新陈代谢以增强碳固定的能力。 尽管存在这些障碍,但仍然不能持续依赖石化产品,迫切需要一种通往碳基产品的新途径。合成生物学在这里有所帮助。 带垃圾,带现金 许多公司已经开始通过重新布线微生物代谢来将温室气体转化为生物燃料和塑料。几乎在所有情况下,工厂或垃圾填埋场排放的“废物”气体都被用作碳源。 总部位于伊利诺伊州Skokie的LanzaTech将工厂排放的废弃一氧化碳转化为乙醇,很快将其他化学品转化为乙醇。 SynBioBeta的撰稿人EmiliaDíaz之前曾撰写有关LanzaTech快速增长和基因工程套件的文章。 LanzaTech已经在商业规模生产乙醇超过一年,在中国运营的气体发酵设施和加利福尼亚州,比利时,印度和南非正在建设的其他设施。他们每年将通过碳废物生产约7700万加仑的乙醇。 根据LanzaTech的首席科学官兼联合创始人Sean Simpson博士的说法,工程微生物特别适合碳转化,因为“化学方法需要非常固定比例的气流,因此[碳源]不仅必须非常固定,但也要确定对所需产品的选择性。“ 基本上,在生物学进入聚光灯之前,碳废物排放的不可预测性是一个问题。 “有了生物学,你就拥有了一种能够吸收高度可变入口气体的催化剂,这是你从生物质废物或工业过程产生的废物流中获得的......并且可以将可变气体转化为高产量的单一产品选择性,“辛普森说。 但工厂排放并不是合成生物学公司旨在获取利润的唯一可行的碳源。其他人正在从农场和垃圾填埋场吸收碳并用它来制造燃料或塑料。 几乎所有地球上的塑料都是用石油制成的,但总部位于加利福尼亚的Newlight Technologies公司旨在改变这一点。他们使用垃圾填埋场甲烷生产一种名为AirCarbon的塑料。该方法包括将甲烷与空气混合并将其转化为液体,然后将其加入微生物中。微生物产生的生物聚合物可以熔化以制造塑料产品,包括手机壳和椅子。 近年来,Newlight与包括宜家和维玛在内的大型塑料经销商合作,并宣布了快速扩大生产规模的计划。由于Newlight希望减少碳排放,同时提供更环保的塑料替代品,因此正在建设年产量达3亿和6亿磅的生产设施。 尽管人们对碳回收持续存在兴趣,但仍有许多障碍需要克服。工业界越来越多地建立学术伙伴关系,以追求冒险的想法,并开发出现成的碳回收解决方案。 学术界推动碳回收 为巩固学术关系,一些公司在财务上支持合成生物学的学术研究。 Ingenza和Sasol UK之前与Dundee大学的Frank Sargent教授合作开发了一种捕获和回收废二氧化碳的方法。发表在Current Biology上的合作结果表明,大肠杆菌可以将100%的气态CO2转化为甲酸,并使用一种叫做甲酸氢化酶或FHL的酶。 现在,Ingenza正在推动该项目的发展,旨在利用该技术捕获和回收发酵过程中的碳废物,同时生产化学品。 Ingenza已经成功地利用发酵,蛋白质工程和合成生物学来设计细胞,用于大规模生产抗生素和化学品以保护作物。 但要应对像全球碳排放这样巨大的挑战 - 并在减少它们方面做出真正的努力 - 学术界必须超越模式生物,如大肠杆菌,寻求答案。 伦敦帝国理工学院代谢工程小组组长Patrik Jones博士知道,天然碳固定过程存在严重的局限性,但他们相信合成生物学可以产生相当大的影响,并且可以更好地理解生物学。他的团队的目标是开发“可以增强人类活动可持续性的全新概念”。 通过研究和设计自养生物,特别是最初在淡水池中发现的蓝藻菌株,琼斯集团已经成功地从光合作用中生产出脂肪酸,醇,烷烃和烯烃。他们还“挖掘”了这种蓝细菌的基因组,以更好地了解其代谢网络。尽管做了这些努力,生物学并不容易揭示它的秘密,并且生物体并不总是适合遗传“重新布线”。 琼斯表示,“我们在扩大工程自养系统方面面临着重大挑战,但最近我觉得我们正在逐步集体,在解决一些关键挑战方面取得进展,例如污染和遗传稳定性。”琼斯还解释说为了改善碳固定以改善人类活动,科学家们首先要弄清楚如何提高碳固定的总体速度。 位于德国马尔堡郊区的另一个学术实验室旨在实现这一目标。 “从生物化学的角度来看,RuBisCO已发展到一定的最佳状态,但它不能再进一步发展,”马克斯普朗克陆地微生物研究所所长Tobias Erb教授说。 “RuBisCO可以修复二氧化碳,它可以很快,但会产生很多错误,或者它可以准确,但效果很慢,”Erb说。尽管RuBisCO在植物和许多光合生物中无处不在,但它作为一种酶有点令人失望。它经常“错误地”与氧气结合,而不是二氧化碳,这会降低其效率。 然而,Erb看到了自然界的潜力,并认为合成生物学可用于改善像RuBisCO这样的酶。 “我们希望从大自然中学习,然后运用知识开发解决方案,”Erb说,他的实验室以挖掘生物基因组和开发新酶以克服碳固定限制而闻名。 2016年,Erb的研究小组发表了第一个用于体外固定二氧化碳的全合成代谢途径。合成途径称为CETCH,由来自9种不同生物的17种不同酶组成,包括3种工程酶。值得注意的是,它比一些天然碳固定途径的效率提高了五倍,并且对氧气完全不敏感。 虽然将这种途径整合到活细胞中更具挑战性,但Erb认为,随着技术的进一步发展,合成碳固定途径有朝一日可能会在体内实施。 凭借自然界的灵感,合成生物学为碳回收提供解决方案。但是工作还有待完成,未来将建立在生物学的支柱上,而不是机会。 生物学理解是未来的支柱 随着科学家们探索分子世界以寻找巨大问题的答案,生物学仍然不愿意分享它的秘密。琼斯知道还有很多基础工作,合成生物学尚不清楚。 “总的来说,我们的主要限制是理解。生物学很复杂,虽然我们认为我们了解大多数基因在模式生物体中的作用,但这仍然让我们面临着理解他们共同贡献的网络的挑战,“他说。 然而,随着LanzaTech,Newlight和Ingenza等公司将碳回收规模扩大,Jones和Erb等学者在开发新的合成生物工具方面向前推进,碳排放量可能会大幅减少。 在许多方面,人类碳排放是地球有史以来面临的最大挑战。减少我们足迹的解决方案将是合成生物学的最高成就。 ——文章发布于2019年6月25日