OpenAI的首席科学家Ilya Sutskever在开发ChatGPT等改变社会的AI对话系统方面发挥了核心作用。然而,他对于AI的未来也抱有深深的担忧,特别是在安全问题上。
Sutskever在十几岁时,怀揣着对人工智能的无限热爱,勇敢地敲响了现代人工智能领域的先驱者Geoffrey Hinton位于加拿大多伦多大学的家门,寻求一份工作机会。Hinton对这位年轻人的抱负和决心留下了深刻印象,“他在暑假期间靠炸薯条赚钱,但他更愿意为我效力,投身人工智能的研究。”
Hinton为他提供了一些论文资料。Sutskever在深入阅读后,对其中未被探讨的显而易见的问题感到困惑不解。Hinton赞叹道:“他的直觉总是那么敏锐。他被认为是深度学习和大型语言模型(LLMs)领域的卓越先驱,这正是如今风靡全球的ChatGPT等对话式人工智能机器人的基石。他的与众不同之处不仅在于他的智慧,更在于他对待工作的紧迫感和热情。”
Sutskever后来成为OpenAI的首席科学家,在ChatGPT的开发过程中起到了举足轻重的作用。然而,他也对人工智能的未来充满了忧虑。2023年7月,他决定将工作重心转移到OpenAI一项为期四年的“超对齐”(superalignment)项目。该公司计划投入20%的计算资源来研究如何“引导和控制那些远比我们聪明的人工智能系统”。
然而,商业发展的快速与安全考量之间的矛盾在2023年11月引发了一场风波。在这场风波中,Sutskever在OpenAI首席执行官Sam Altman的解雇和重新聘用过程中扮演了关键角色。事件过后,他选择拒绝了Nature杂志的采访请求。
尽管有人对Sutskever的远见卓识表示钦佩,认为他具有强烈的道德责任感和对人工智能安全的深切关注;但也有人指出,过度关注尚未出现的人工智能控制问题可能会使人们忽视该技术当前存在的实际风险。纽约市政策研究机构AI Now Institute总经理Sarah Myers West警告说:“这样的做法将干预措施推到了遥远的地平线之外。”她主张我们需要更多地关注“解决眼前的危害”,例如人工智能系统在训练数据中可能强化了偏见和潜在的隐私泄露问题。
同时,人工智能系统缺乏透明度也引发了广泛担忧。OpenAI和其他一些公司对其代码和训练数据严格保密,这引发了公众对其背后意图和潜在影响的质疑。Sutskever本人也承认,从长远来看,封闭系统可能是避免他人制造出强大人工智能的一种负责任的做法。他在2023年4月的一份声明中指出:“随着时间的推移,人工智能的能力将变得如此强大,以至于开源模型显然是不负责任的选择。”
为了吸引更多资金以支持计算能力的提升,OpenAI团队在2019年将公司从非营利模式转变为“上限营利”模式。这一举措成功吸引了科技巨头微软的数十亿美元投资和计算资源支持。随着资金的注入和技术的不断突破,LLM得到了显著改进。2022年11月发布的ChatGPT更是引起了轰动效应,将OpenAI推向了新的高度。
自始至终,Sutskever对人工智能问题的言论仍然大胆而前瞻。他在2022年宣称人工智能可能已经“稍有知觉”,这一观点引发了人们的广泛关注和争议。他坚信AGI甚至超越人类智力总和的“超级智能”有可能在数年或数十年内被开发出来。人工智能研究员Andrew Ng说:“时至今日,我仍对他的乐观态度感到惊讶。”
Ng评价道:“Sutskever有一个令人钦佩的特质那就是无论别人是否同意他的观点,他都能选择一个方向并坚持不懈地追求下去。”这种勇气和决心正是他在人工智能领域取得如此多成就的关键所在。