《OpenAI发布新人工智能系统:根据文字生成图像》

  • 来源专题:数控机床与工业机器人
  • 编译者: icad
  • 发布时间:2021-01-09
  • 据报道,旧金山人工智能研究公司OpenAI已经开发了一种新系统,能根据短文本来生成图像。

    OpenAI在官方博客中表示,这个新系统名为DALL-E,名称来源于艺术家萨尔瓦多·达利(Salvador Dali)和皮克斯的机器人英雄瓦力(WALL-E)的结合。新系统展示了“为一系列广泛的概念”创造图像的能力,创作的作品包括牛油果形状的扶手椅等。

    通过神经网络去生成图像,这种技术并不新颖。此前,生成对抗网络(GAN)已被广泛用于创建真实的人、宠物、租赁房产和食物的照片。

    不过,DALL-E的独特之处在于可以根据输入的文本来创作图像。该系统基于文字生成系统GPT-3的一个版本,该系统此前被用于撰写诗歌和新闻文章等。利用配对好的文本和图像数据集进行训练,DALL-E可以根据新的文字提示生成图像,此外还展示了创造多种风格图片的能力。

    OpenAI还发布了图像识别系统Clip。Clip通用性比当前针对单个任务的系统更好,可以用网上公开的文字图像配对数据集来训练。

    DALL-E还需要继续优化。OpenAI指出,DALL-E目前的可靠性还存在问题,对类似“glass”等有多个含义的名词常常会混淆,文字中不同的语法也可能会造成不同的结果。

    此外还有更深层次的问题需要解决。OpenAI表示:“我们注意到,涉及生成模型的工作可能会产生重大而广泛的社会影响。”未来可能的举措包括研究对就业岗位的影响,生成结果的偏见,以及技术的长期道德挑战。

    长期以来,公众一直担心人工智能生成的媒体内容被滥用,例如神经网络被用来制造虚假的音视频和图像,用于不道德的目的,例如政治上的假信息和欺诈活动等。

相关报告
  • 《微软将发布安全人工智能产品,帮助客户追踪黑客》

    • 来源专题:新一代信息技术
    • 编译者:isticzz2022
    • 发布时间:2024-03-15
    •       微软公司计划在4月1日发布人工智能工具,帮助网络安全工作者制作可疑事件的摘要,并找出黑客用来掩盖其意图的狡猾方法。大约一年前,微软推出了Copilot for Security,此后一直在企业客户中试用。微软安全营销副总裁Andrew Conway表示,测试公司包括英国石油公司(BP Plc)和陶氏化学公司(Dow Chemical Co.),目前拥有“数百家合作伙伴和客户”。客户将根据使用情况支付费用,就像他们使用该公司的Azure云服务一样。       安全Copilot是微软正在进行的努力的一部分,该努力旨在为其主要产品线注入合作伙伴OpenAI的人工智能工具,并说服企业客户购买订阅。虽然人工智能可以帮助生成内容和合成公司数据,但它也会犯一些代价高昂或令人尴尬的错误。由于计算机安全是如此关键,风险如此之高,康威表示:“这家软件巨头对这款Copilot格外小心。该软件将OpenAI模型的强大功能与微软收集的大量安全特定信息相结合。考虑到用例的严重性,我们正在做很多事情来解决(风险),包括寻求对产品及其不足之处的持续反馈。尽管如此,今天安全仍然是一个安全产品产生假阳性和假阴性的地方。这就是这个领域的本质。”       Copilot与微软的所有安全和隐私软件配合使用,提供了一个助手窗格,可以生成摘要并回答问题。例如,该公司的一个安全程序已经收集了各种安全警报,并将相关警报合并为一个事件。现在,当用户点击每个事件时,Copilot可以总结数据并编写报告,这通常是一个耗时的过程。通常在攻击过程中,黑客会使用复杂的编程脚本来混淆他们试图做的事情,使其更难跟踪。Copilot旨在解释攻击者的目的。       Conway说,该软件将使经验丰富的网络安全工作者能够胜任更复杂的任务,并帮助新员工更快地掌握速度,补充他们的技能。微软表示,在测试中,新的安全人员的表现快了26%,准确率提高了35%。这很有帮助,因为网络安全行业正遭受长期劳动力短缺的困扰。       微软表示,人工智能程序还可以连接到竞争对手的安全软件,而不仅仅是微软的。英国石油公司负责网络防御的副总裁奇普·卡尔霍恩表示,20至30名员工一直在测试Copilot。他说,设置它只需要点击一两次,但他的安全专业人员花了几个月的时间才真正习惯使用这个工具。他的团队中的一些成员正在使用Copilot来寻找威胁,依靠人工智能快速扫描大量数据和警报,寻找安全漏洞的证据。更有经验的分析师可以向工具提问——用简单的英语加上人工智能所能理解的安全语言。例如,分析师可以要求提供证据,证明黑客正在使用“陆上谋生技术”通过英国石油公司的系统,这种攻击使用网络自己的工具来躲避安全防御。这种入侵在与俄罗斯和中国有关的黑客中很受欢迎。      卡尔霍恩说:“坏人的速度越来越快,我们也必须更快,所以像这样的工具真的对我们有帮助。”他的团队还利用公开的模型构建了自己的定制人工智能工具。“它还不完美。它会变得完美的。”
  • 《全球出版和新闻组织联合发布人工智能 (AI) 全球综合原则》

    • 来源专题:数智化图书情报
    • 编译者:闫亚飞
    • 发布时间:2023-09-21
    • STM加入了代表全球数千名创意专业人士的26个组织,包括学术出版部门,新闻,娱乐,杂志和图书出版公司发布了全球人工智能 (AI)原则 。这些开创性的全球原则是同类产品中的首创,为人工智能(AI)系统和应用程序的开发、部署和监管提供了指导,以确保商业机会和创新能够在道德和负责任的框架内蓬勃发展。《人工智能全球原则》旨在确保出版商持续创造和传播优质内容的能力,同时促进创新和负责任地开发值得信赖的人工智能系统。 《人工智能全球原则》涉及与知识产权、透明度、问责制、质量和诚信、公平、安全、设计和可持续发展有关的关键问题,标志着一次前所未有的合作,保障了内容创作者、出版商和消费者的利益。 在《原则》中,这些组织呼吁负责任地开发和部署人工智能系统和应用程序,并指出这些新工具只能根据保护出版商知识产权、品牌、消费者关系和投资的既定原则和法律进行开发。该原则明确指出,人工智能系统“不分青红皂白地盗用我们的知识产权是不道德的、有害的,侵犯了我们受保护的权利。 除其他事项外,《全球人工智能原则》规定,人工智能系统的开发人员、运营商和部署者应:尊重知识产权,保护组织对原创内容的投资。利用高效的许可模式,通过培训值得信赖的高质量 AI 系统来促进创新。提供精细的透明度,允许发布者在其内容包含在训练数据集中时行使其权利。明确将内容归因于内容的原始发布者。认识到出版商在生成用于培训、展示和合成的高质量内容方面的宝贵作用。遵守竞争法和原则,并确保人工智能模型不被用于反竞争目的。促进可信和可靠的信息来源,并确保人工智能生成的内容准确、正确和完整。不歪曲原创作品。尊重与其互动的用户的隐私,并在人工智能系统设计、培训和使用中充分披露其个人数据的使用情况。与人类价值观保持一致,并按照全球法律运营。完整的人工智能全球原则, 可以在这里找到,更详细地阐述了上述每一点。 签署全球人工智能原则的组织包括: ?  AMI – Colombian News Media Association ?  Asociación de Entidades Periodísticas Argentinas (Adepa) ?  Association of Learned & Professional Society Publishers ?  Associa??o Nacional de Jornais (Brazilian Newspaper Association) (ANJ) ?  Czech Publishers’ Association ?  Danish Media Association ?  Digital Content Next ?  European Magazine Media Association ?  European Newspaper Publishers’ Association ?  European Publishers Council ?  FIPP ?  Grupo de Diarios América ?  Inter American Press Association ?  Korean Association of Newspapers ?  Magyar Lapkiadók Egyesülete (Hungarian Publishers’ Association) ?  NDP Nieuwsmedia ?  News/Media Alliance ?  News Media Association ?  News Media Canada ?  News Media Europe  ?  News Media Finland ?  News Publishers’ Association ?  Nihon Shinbun Kyokai (The Japan Newspaper Publishers & Editors Association) ?  Professional Publishers Association ?  STM ?  World Association of News Publishers (WAN-IFRA)