《ChatGPT背后技术的争议和未来趋势分析》

  • 来源专题:数控机床与工业机器人
  • 编译者: icad
  • 发布时间:2023-02-27
  • 一、总体看法
      1. 从人工智能发展角度看,这是认知智能发展的一个重要里程碑,其意义要高于7年前的AlphaGo。
      AlphaGo是在人类智慧高强度体现的领域(围棋),机器战胜了人类,基于数据和算法,它刷新了普通大众对人工智能技术的看法,但是其本身并不能广泛应用,普通大众也难以与其直接接触。
    ChatGPT 则完全不同,它是在人类三岁小孩就逐步形成的语言智能方面有了重大突破。
      过去,在人工智能领域,在人比较难做的事情上,比如数学定理证明、下象棋,机器表现很好;但是在人容易做到的事情上,比如说话,常识推理,机器表现反而很差,这些人类基本的智能对机器来说很难,是人工智能最难啃的硬骨头。
      这次的ChatGPT是在这方面有了一定的突破,因为是说话,不是下围棋,所以普通大众都可以成为ChatGPT的用户,也就是说ChatGPT天生具有广泛的用户基础,再加上其令人惊艳的表现,这些使得其发布后用户量迅速增长,火出圈!
      2. ChatGPT不仅仅是聊天,如果把它限制为聊天,那就显著降低了它的价值和意义。
    OpenAI 根据自己同类产品API的调用分析,除了纯聊天之外,用户还把它用于文本生成、开放域问答、头脑风暴、改写、摘要、分类等。
      ChatGPT是对话式AI迈向真正实现的第一步,从互联网层面看,它可以作为信息入口,与搜索引擎相结合;从文案办公方面看,它可以与办公软件相结合,增强人的办公效率;从人机交互角度看,它体现的是一种基于语言的自然交互方式,可以与元宇宙、数字人结合。
      除此之外,它还可以应用于机器人,充当机器人大脑。如果从人类信息发展的历史尺度上看,它是在人与机器之间的信息接口上有了很大突破。
      3. ChatGPT是近几年技术快速发展和不断更新迭代、多种技术叠加在一起形成质变的产物,是自然语言处理领域近年来研究的结晶。
      其底层的技术,包括Transformer、自监督学习、微调、人类反馈强化学习、AI对齐等,在自然语言处理和人工智能领域都有广泛的研究和应用。
      但是ChatGPT将这些技术巧妙地结合在一起,有效规避了大模型的未对齐行为,利用了大模型规模带来的智能突现能力,增强了大模型的指令学习能力和用户意图捕获能力,解锁了大模型的泛化能力,这些能力叠加在一起形成了ChatGPT的质变效果。
      4. ChatGPT探索了一种使机器获得语言智能的有效技术路线,但这个方向仍然需要在科学和技术上进一步探索。
      技术上,其他的技术路线是否可以达到同样效果?
      近几年,大模型研究技术架构上出现了同质化趋势,Transformer独步天下,GPT路线占据绝对统治地位,这对未来技术创新并不是好事;
      科学上,ChatGPT一类技术体现了技术先行科学滞后的典型特点,为什么大模型有突现能力?对齐之后的泛化能力是如何形成的?语境学习的机制是什么?
      这些问题目前都没有明确的答案,科学回答这些问题,显然可以进一步推动技术发展。
      5. ChatGPT技术虽然取得了重要进展,但仍然面临诸多挑战。
      第一,虽然采用了人类反馈强化学习(RLHF)AI对齐技术,但是生成的内容仍然存在未对齐行为,如不符合常识,存在偏见、歧视等内容,信息真实性有时存疑(即“一本正经地胡说八道”),未来在AI对齐技术上需要进一步研究和突破;
      第二,以ChatGPT为代表的大模型技术通常被具有丰富算力和数据资源的企业垄断,且不开源,不利于大模型技术研究和突破;
      第三,目前大模型的算力消耗非常庞大,要实现大规模真实场景应用,模型轻量化技术需要进一步探索;
      第四,要提升模型的可解释性,要研制相关技术使得ChatGPT为代表的大模型技术可以自我追溯信息源头,增强可信性;
      第五,ChatGPT背后还存在很多科学问题未有明确答案,如大模型突现能力是如何形成的?语境学习机制是什么?AI对齐为什么使大模型具有指令泛化能力?这些科学问题的探索将会推动未来技术更好地发展。
      二、ChatGPT技术发展
      6. GPT-3之前的大模型技术路线和架构是多种多样的,以BERT为代表的Encoder大模型、以GPT为代表的Decoder大模型、以T5为代表的Encoder-Decoder大模型等,但是从GPT-3之后,大模型技术路线趋于单一化。
      包括Google的PaLM、LaMDA,Meta AI的Galactica、OPT,Nvidia/Microsoft的Megatron-Turing,AI21 Labs的Jurassic-1,DeepMind的Gopher、Chinchilla,Hugging Face的BLOOM,国内华为的Pangu-a,浪潮的Yuan-1.0等千亿级参数规模的大模型,基本上都是采用GPT-3的Decoder架构,可能是因为训练成本太高,采用其他未验证的架构,试错成本高,跟随GPT-3成功路线进行微创新是最好的选择。
      7. GPT-3 2020年3月发布后,国内外研究机构相继快速跟进,上述提到的大模型基本上都是在2021-2022期间研发出来,也就是说从技术路线上总体滞后GPT-3 1-2年时间。
      8. GPT-3文本生成结果比之前的模型有大幅度提升,但同时也存在很多问题,如各种偏见、歧视、潜在的滥用等。
      鉴于这些问题,大模型研究开始逐步重视AI对齐研究,即使得大模型输出结果与人的意图、价值观等对齐。
      一些瞄准通用人工智能的企业,如OpenAI、DeepMind纷纷成立专门的AI Alignment研究团队,招兵买马,将AI Alignment视为通向AGI之路必须要解决的问题。
      来自这两个团队研究人员,甚至成立了一家非盈利研究机构:ARC(对齐研究中心)。
      9. 基于大模型的对话agents纷纷在2021-2022期间开始研制,包括Google的 LaMDA、DeepMind的Sparrow、Anthropic的Claude等,这些dialogue agents无一例外都进行了AI对齐。
      10. RLHF并不是唯一的AI对齐技术,面向language agents的对齐有很多方法、很多策略,需要更多探索。
      11.模型编辑、稀疏模型、半参数检索模型,这些技术,在大模型发展中同样值得深入研究。大模型编码的知识不应该是一成不变的,将知识全部编码到模型链接和神经元中,可能也并不是最优选择。
      12. 除了AI对齐和大模型赋能ChatGPT之外,OpenAI在长文档摘要、自然语言描述转为代码等方面也做了很多工作,这些工作同样增强了ChatGPT相应能力。
      三、国内同类技术
      13. 2020年OpenAI发布1750亿参数的GPT-3之后,国内企业和科研机构,同Google、微软、DeepMind、Meta AI等一样,于2021-2022年间,研制了类似于GPT-3架构的千亿级大模型。
      因此,在底层技术上我们不存在任何问题。
      14. 但是要实现中国版的ChatGPT,需要在多个方面加强研究,压实工作。
      首先,在数据上,我们要使用与GPT-3相当的数据量和计算量训练模型,目前中文缺乏像英文那样的多个开源大规模数据集,各家企业使用的中文数据也很少开源,很多时候数据也未像OpenAI那样进行精细处理以提升质量;
      其次,国内在AI对齐研究上需要加强,尤其是在已经预训练的大模型上,要进行对齐,要继续优化和精调大模型;
      再次,要充分调动以大模型为代表的新型AI技术的研发活力,鼓励已经研制的大模型向大众公开,接受广大用户检测,同时也要积极培育专攻某一类核心技术(如大模型AI对齐技术)的初创企业,不求短期市场回报。
      四、ChatGPT背后大模型技术的争议
      15. 大模型的优缺点在业内讨论非常多,也非常激烈,大模型存在伦理问题、环保问题、资源垄断不开源问题等等,这些问题学术界和产业界都在进行研究,寻找技术、策略、机制等方面的解决方案。
      16. 个人认为,业内对大模型争议最激烈的地方在于大模型是否是通向AGI之路、是否具备类人理解力、是否具有情绪/意识,这些问题已经不单纯是在自然语言处理领域、人工智能领域讨论了,一些争论已经在哲学层面进行了,包括借助思想实验等。
      除此之外,这些问题涉及的AGI、意识等,对它们的定义,本身也没有共识,存在争议。
      17.就大模型是否能像人一样“理解”用户输入的句子以及自身生成的文本这个问题而言,从技术层面看,大模型本质上是根据单词共现概率基于已生成的单词序列预测下一个单词,共现概率或依存关系是大模型从海量文本数据中建模学习而来。
      由于大模型的数据都是符号,模型是无法像人一样将意义、概念奠基到符号之外的物理世界,符号系统在语意上是不充分的。
      符号系统本身并不能真正理解符号的意义,所有的意义都是被外部观察者或设计者所赋予的,即使将视觉模态加入到大模型中,大模型学到的也只是符号和视觉元素之间的统计关联关系,仍然不能奠基到真实的物理世界。
      也就是说,大模型无法做到类人理解。这里涉及到人工智能图灵测试、中文屋思想实验、符号奠基问题等,感兴趣者可以参考《神经机器翻译:基础、原理、实践与进阶》第19章短评“预训练技术争议与符号奠基问题”。
      18. 自然语言处理和人工智能领域的研究者在学术论文中或者介绍AI模型时,经常使用拟人化的描述,如“理解”、“学习”等,主要是为了让读者或听众更容易理解模型或算法的原理,并不不代表机器、模型真的像人一样思考、学习、理解。
      五、未来趋势
      19. ChatGPT类技术其背后体现的,首先是预示着一种深层次的信息革命。
      人类发明计算机和互联网之后,获取、存储和使用信息的方式出现了翻天覆地的变化,但最近几十年基本上没有大的变动,主要以搜索引擎为主,呈现的信息通常需要用户进行二次处理或再加工才能满足要求。
      ChatGPT呈现的信息则通常可以直接满足用户的需求,或通过交互方式逐步达到用户的要求,虽然目前还存在信息可靠性问题,但相信未来这些问题会不断得到改善。
      其次是人和机器关系会出现重大转变。
      以ChatGPT为代表的一类技术在精准捕获用户的真实意图方面迈出了一大步,一旦机器可以“理解”人类意图并完成相应任务,人和机器的交互就不再需要翻译成机器语言,而是直接使用人类语言作为交互载体。
      再次是机器生成内容的能力大大增强。
      一些文字内容类工作,机器可以辅助人类,人的工作效率会得到极大提升,一些“枯燥乏味”的文字工作则可交给机器完成,人专注于更高层次的内容、思想编辑工作,或通过人机交互方式协同生成更好的内容。
      20. 基于以上趋势,未来人类获取信息的方式、与机器交互的方式都会出现变化。
      与人类意图、价值观、伦理准则高度对齐的信息智能体会帮助我们高效获取信息、生成信息和发布信息。
      以ChatGPT为代表的大模型及其后续更新技术会逐步充当各种机器、设备、机器人的“大脑”,人机之间的交互会更加以人为中心,而不是以机器为中心。
      相应的技术会对多个行业、领域产生影响,如教育(规范使用ChatGPT等类型技术,避免学生使用它们做作业,发挥新技术对教育的积极辅助作用,而不是成为作弊利器)、医疗(将大模型技术应用于医疗问答、药物研发、DNA/蛋白质建模等)等,传统的计算机软件,如搜索引擎、办公软件等,也会受到影响和冲击。
    更多信息可以来这里获取==>> 电子技术应用-AET << .
  • 原文来源:http://www.chinaaet.com/article/3000159529
相关报告
  • 《2018年面板产业发展现状与未来趋势分析》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:姜山
    • 发布时间:2018-03-05
    • 2018面板产业发展现状分析 近年来,日本面板厂商虽掌握大批关键技术,但是逐渐失去价格竞争优势,不断压缩面板产能,面板产能向韩国、中国台湾和大陆三地集中。中国大陆面板产能急速扩张,即将成为全球最大的液晶面板生产基地。 目前,经过多年努力,我国大陆地区液晶面板产量已位居全球第二,自主核心技术快速增长,全球产业话语权不断增强。在液晶电视面板上, 中国大陆面板厂商出货量已经占据额全球的30%,达到0.77亿片,首次超越中国台湾的25.5%市占率,仅次于韩国排名全球第二。2015年,中国大陆液晶显示器产能约4948万平方米。 得益于政府的扶持,国内面板厂家发展迅速,涌现了不少实力强劲的企业,如京东方。截至 2016年四季度,京东方全球市场占有率持续提升:智能手机液晶显示屏、平板电 脑显示屏、笔记本电脑显示屏市占率全球第一,显示器显示屏提升至全球第二, 电视液晶显示屏保持全球第三。 虽然我国面板产业取得重大突破,但本土厂商技术依旧薄弱,特别是在高端产品领域常年从韩国、日本、台湾等地进口液晶面板。特别是在新技术发展上,与日韩以及台湾企业技术差距还比较大,整体上仍处于技术追赶阶段。而且液晶面板的自给率仍然偏低,自给率仅为30%,产品对外依赖较大,一定程度上影响国内液晶面板产业长远发展。 此外,在国内产业生产链、产品技术水平以及创新机制等依旧落后的环境下,行业可能会出现产能过剩的情况,产能过剩的隐忧依然存在。 面板产业未来趋势分析 首先,消费升级驱动大尺寸面板走向景气。2016年起面板价格筑底回升,显示大尺寸电视需求保持景气,从而带动大尺寸面板价格走高。从大尺寸液晶面板的供需上来看,2017 年一季度作为传统淡季,48寸以下的液晶面板需求有所减少,而 50 寸、55 寸、65 寸等大尺寸面板的需求持续升温。可见,虽然面板产业整体增速受限,但是大尺寸面板需求增速相对维持再高位。 其次,随着全球家庭的消费电子产品持有量持续提升,显示面板的下游需求将保持持续景气,而多元化的面板应用需求将带动面板技术不断升级。 第三,OLED迎来跨越式发展。预计到2020年OLED屏幕市场空间可达873.3亿美元,对应复合增速 73%,主要应用于电视、手机。预计在2018-2019年,电视市场有望超过手机市场成为OLED应用的第一大市场,PC、VR、可穿戴设备、汽车等细分市场也将丰富 OLED 应用场景,获得高增长。第四,在技术方面,降低功耗始终是各个厂商需要面对的问题,尤其是针对移动设备而言,在电池技术发展缓慢的情况下,作为耗电量最高的部件,液晶屏幕的功耗在很大程度上决定了移动设备的待机时间。除了从液晶面板开口率、TFT材质等方面之外,液晶面板厂则也将会从驱动电路方面入手来进一步降低液晶屏幕的耗电量。未来国家将会在政策上加以调整,重点支持新一代显示技术的研发。显示产业要加速产业升级,从“提量”变成“提质”,同时在下游拓展新兴显示器的应用领域,而不是低水平的重复建设。 最后,在中国大陆和台湾地区企业的猛烈攻势下,全球大型LCD面板市场上韩国LG DISPLAY、三星DISPLAY“两强独大”局面瓦解。未来韩国在LCD的市场地位将会缩小,而中国大陆和台湾地区企业将会抢占更多的市场份额。如今的面板产业韩国、中国大陆、中国台湾三分天 下,按照当前发展势头,中国大陆有望在2019年成为全球第一。
  • 《2023年展望:未来半导体行业的八大趋势》

    • 来源专题:数控机床与工业机器人
    • 编译者:icad
    • 发布时间:2023-01-13
    • 动荡的2022年引发 半导体 行业库存调整,企业纷纷应对短期下行周期,但背后的发展 趋势 值得关注。   由于人工智能(AI)、AR/VR、物联网(IoT)、自动驾驶汽车、电动汽车、高性能计算(HPC)、航空航天、卫星通信、5G/6G、智慧城市等众多应用科技,都依赖于半导体技术的进步来实现创新,我们相信以下趋势将影响 2023 年及未来几年半导体 供应链 的发展。 减少供应链中断   随着各国逐步解除疫情防控措施,新的供应链生态正在形成,过去两年因疫情防控造成的物流中断和供应链中断问题最终将得到解决。中国的疫情封锁和电力短缺风险仍然存在,但随着疫情控制措施的逐步放松,宏观经济状况可能会有所改善。  新品上市刺激需求   AMD、英特尔和英伟达都计划在 2023 年推出新的 CPU 和 GPU 产品。苹果也将在 2023 年推出采用台积电制造的 3nm 芯片的新笔记本电脑。另据传,苹果将于 2023 年推出 AR/VR 设备,新的创新终端产品的销售将带动芯片的增长。据DIGITIMES Research称,目前各种零部件和成品的高库存将在2023年上半年得到消化。 区域化和本土化   除了政府增加国内芯片生产的激励措施外,比预期更长的俄乌战争也促使半导体公司寻求替代材料来源,并培养国内供应商。企业在过去两年的艰苦岁月中历经磨练,在供应链管理上形成了更强的应变能力。   与此同时,净零碳排放要求等气候政策正在推动企业减少碳足迹。终端设备客户可能开始要求在他们的主要市场或组装地点附近生产的芯片,从而增加区域化而不是全球化。据报道,苹果已经下单了在美国生产的 3nm 芯片,而台积电确认计划在亚利桑那州生产 3nm 芯片也为这一趋势提供了佐证。  脱钩将继续   由于未来我们可能会继续看到更多的监管限制和技术出口管制的变化,因此所有人都会受到影响。已经有报道称公司试图降低美国技术含量或改变节点以避免美国制裁。   WSTS 亚太区副主席 Gabriel Chou 表示,世界半导体贸易统计 (WSTS) 将很快发布 2023 年的最新预测。“我们预计会向下修正。” WSTS 此前于 8 月发布的预测预计,2023 年全球半导体市场将增长 4.6% 至 6620 亿美元,而 2022 年预计将增长 13.9%。   DIGITIMES 半导体分析师 Eric Chen 预测,由于宏观经济环境的不确定性和中美技术战,2023 年全球晶圆代工制造商收入将出现 2-3% 的下降。   “展望2023年,考虑到终端产品的库存修正将持续到2023年上半年,经济前景将影响人们的消费意愿,终端产品的库存修正很可能会延长,全球晶圆代工到 2023 年,收入将下降 2.3%,而台积电是唯一一家将在 2023 年实现增长的代工厂商,”Chen 在他的最新报告中写道。据 DIGITIMES Research 估计,到 2022 年代工市场的收入预计将增长 25.8%,达到 1372 亿美元。   尽管分析师不断提到地缘政治风险是可能扰乱供应链的主要不确定因素之一,但对于许多半导体制造商来说,它并不像导致大量库存需要终端设备客户纠正的“需求冻结”那样令人担忧。半导体公司在第三季度财报电话会议上一致认为,库存调整和消费者需求疲软是对其2023 年上半年业绩的最大影响。  内存寡头竞争升温   美光已宣布削减 DRAM 和 Nand 的产量以缓解价格下跌的影响。SK 海力士还宣布削减 50% 的资本支出。这些措施有利于抵御内存价格的下跌,但我们需要注意三星的举动,因为它是唯一拒绝减产或资本支出的公司。推出200+层的Nand flash竞争激烈。SK海力士计划在2023年上半年推出1 beta处理节点的DDR5芯片,而美光已于22Q4在中国台湾开始量产其1 beta处理节点芯片,目前正准备在2024年量产1 gamma节点。   更多公司采用 Arm 和 RISC-V 架构   自主设计芯片的品牌和系统所有者已成为主流,其中许多选择采用 Arm 或 RISC-V 架构。尽管有些人可能会发现 Canalys 最近预测到 2026 年 50% 的服务器和 30% 的笔记本电脑市场将基于 Arm 架构,这一目标雄心勃勃,但 RISC-V 的快速增长可能更令他们震惊。RISC-V 国际基金会 CEO Calista Redmond 曾表示,到 2025 年,RISC-V 预计将分别占据全球 CPU 市场的 14% 和全球汽车核心市场的 10%,RISC-V 核心很可能会看到另一个2023 年增长 100%。Semico 预测 2018 年至 2025 年 RISC-V 内核的复合年增长率将接近 160%。 摩尔定律不仅由 EUV 延续   代工厂正在开发碳纳米管、内存计算、3DIC异质集成、复合材料等创新技术,以制造占用面积更小、计算能力更强、能耗更低的芯片。并且有新的玩家加入,加入到竞争之中。除了供应方面的努力,如果终端设备有足够的创新来推动对亚 2nm 芯片的需求,我们将看到摩尔定律的延续,该定律预测芯片上的晶体管数量将每 2 年翻一番。   人才紧缩   由于全球半导体供应链分工复杂,根本没有足够的工程师来填补全球半导体行业的职位空缺,至少在短期内是这样。中国台湾已经是这种情况,它已经拥有最多的半导体工程师来生产世界上 60% 的芯片。虽然很多国家和公司已投入资金和资源来限制芯片供应和增加国内产量,但人才短缺问题很难在短期内得到解决,并可能阻碍投资的有效性。在正在备份或从头开始构建半导体产业生态系统的国家,人才短缺将更加严重。没有足够的人才,建造国产芯片的巨额投资将仍然是一个白日梦。  更多信息可以来这里获取==>> 电子技术应用-AET << .