《回到未来:后叙事史学与分析哲学》

  • 来源专题:科学技术史研究论著动态
  • 编译者: ihns
  • 发布时间:2016-05-10
  • ABSTRACT

    Jouni-Matti Kuukkanen has written an important book. It directly confronts a key theoretical dilemma that has shadowed debate in historiography for several decades: histories cannot be written without using some narrative structure or other, but epistemological evaluation cannot be applied to narratives qua narrative. Thus, if empirical inquiry takes the form of a history, then it cannot be rationally evaluable, and if rationally evaluable, empirical inquiry cannot be in the form of a history. Kuukkanen's book both directly confronts and proposes a strategy for surmounting this tired and tiresome theoretical barrier. Kuukkanen deserves great credit for attempting to reshape a long-stalled debate in a way that enables the theoretical options to be imagined anew. Yet his structuring of the oppositional tendencies engenders some ongoing problems regarding how to understand the philosophical stakes and options. This review argues that achieving Kuukkanen's postnarrativist future requires going back to past epistemic concerns discarded because they were tied to conceptions of logic and explanation that could not be reconciled with narrative form. Kuukkanen practices postnarrativism but still preaches a prenarrativist conception of logic. To reach his promised future, to actually overcome the dilemma that he rightly seeks to transcend, one must actually have the courage of Kuukkanen's pragmatist convictions.

相关报告
  • 《未来哲学论坛:AI和基因技术使人类的未来变成一场赌博吗?》

    • 来源专题:中国科学院文献情报制造与材料知识资源中心 | 领域情报网
    • 编译者:冯瑞华
    • 发布时间:2018-11-28
    • 人工智能是人类的延伸还是新的物种? 具备完整意识的机器人是否可以被列入自然人的范畴? 自然人被技术化(非自然化)的限度在哪里? 谁来决定人工智能可以做什么、不能做什么? 这些充满趣味和想象空间的问题无一不包含着对未来的思考,显然无法单纯通过科学技术本身来解决,而是与观念和价值相交织,上升到了哲学的层面。 “现代技术的进展呈现出不断加速之态,特别是通过基因工程和智能技术,自然人类文明正在过渡和转变为技术的文明新形态,今天人们表现出史无前例的莫名期待与深度工具的交织。文明正处于巨大的断裂中,哲学已经不能靠回忆和美化过去时代度日了。哲学必须具有未来性。”同济大学欧洲思想文化研究院院长孙周兴表示道。 为此,孙周兴发起成立的“本有研究院”与全球最大的Class A级共享生物实验室——大得创同实验室(ATLATL)共同筹办了首届未来哲学论坛。该论坛于11月23日在上海开幕。在两天时间里,包括生命科学研究专家、同济大学前校长裴钢院士,当代法国哲学家、德里达门生贝尔纳·斯蒂格勒教授,“佳佳之父”、中国科学技术大学机器人实验室主任陈小平教授,海德格尔专家陈嘉映教授,著名学者、中国社会科学院哲学研究所研究员赵汀阳教授,建筑设计学家、同济大学设计创意学院科斯塔斯·泰尔齐迪斯教授,德国心灵哲学专家、波恩大学国际哲学中心主任马库斯·加布里尔教授等哲学和科学领域的学者,围绕未来在哲学和科学层面展开跨界对话。 同济大学设计创意学院教授科斯塔斯·泰尔齐迪斯对于科学技术的发展持乐观态度。他认为,在今天计算机已经超出一般意义上的工具,它们的能力和潜力也已经超过人类的理解范畴,这恰恰提醒我们应该知道人类自身的局限性,“只有这样,我们才能够面对真实的世界,才能承认那些不同的、异形的、与我们不同的智能。” 但贝尔纳·斯蒂格勒则表示,“技术是人类的解药,也是人类的毒药。我们要对技术的高速发展心存警惕。我们需要创造一种新的技术文化,去应对技术的时代。”这位拥有堪称传奇经历的法国哲学家曾因抢银行被捕入狱,并于出狱后得到了法国著名哲学家德里达的指导。他所撰写的巨著《技术与时间》将“技术”问题从哲学的边缘推到了核心位置,由此确立了在哲学领域的地位。斯蒂格勒提醒人们自觉地塑造新的行为模式,以对抗市场统领下的技术体系的追捕。 赵汀阳也在哲学层面表达了对技术无限制发展的忧虑。今天技术的发展在意图上并非否定人类的存在,但在实际效果上蕴含着对人类存在的否定。“人类数千年来的存在经验正在发生无法接续的断裂,如果经验无法继续延伸,就意味着未来变成一个绝对陌生的状态,包含着完全不可测也不可控制的变化,未来也就变成不可信任的赌博。” “技术进步是否永远都有利于人类?”赵汀阳对此表示疑问。在他看来,现代以来的技术发展之所以是成功的,是因为还未触及到技术的存在论边界。但是现在的技术发展正在开拓出一个超出人类控制能力的未来。这就等于进入了赌博模式,是一场人类无法控制的技术赌博,尤其是人工智能和基因技术。 新技术发展从来都会带来好处,也会带来风险,科学家看好处,思想家却老是看风险,陈嘉映觉得这是有道理的,他认为知识人的任务不是在于指导社会,而是在于指出社会发展过程中的危险。在他看来,人工智能和基因工程技术不仅将大规模改变世界的面貌,也会改变人类自身,“AI要把机器变得更像人,基因工程要把人类变得更像机器。”但是陈嘉映不认为人工智能会演变为一种新人类,反而很可能把人类变成新人类。 陈小平是人工智能领域的权威,他提醒要区分真实的人工智能与媒介传播中的人工智能,二者相去甚远,仅仅通过媒介来理解人工智能显然不能了解业已存在的人工智能,更无法理解人工智能的未来。 作为科学家,裴钢理解的人类文化具有“三原色”,即哲学、科学和信仰,这三者在不同程度上都有交叉,科学发展到最顶端必然要面对哲学和信仰层面的拷问。 “我们是谁、从哪里来、到哪里去?这三个基本问题,在生物技术和人工智能面前是需要重新被思考的。”裴钢认为,克隆技术在不远的将来完全可以达到克隆人的能力,剩下的就是伦理问题。而与其讨论人工智能做什么,他更愿意谈人工智能不能做什么和不该做什么,“但是最终又由谁来决定人工智能能做什么不能做什么?”科学家不会放弃研究,哲学家也不必停止思考,裴钢认为这就回到了孔子讲的“君子和而不同”,在差异中寻求共识。
  • 《ChatGPT背后技术的争议和未来趋势分析》

    • 来源专题:数控机床与工业机器人
    • 编译者:icad
    • 发布时间:2023-02-27
    • 一、总体看法   1. 从人工智能发展角度看,这是认知智能发展的一个重要里程碑,其意义要高于7年前的AlphaGo。   AlphaGo是在人类智慧高强度体现的领域(围棋),机器战胜了人类,基于数据和算法,它刷新了普通大众对人工智能技术的看法,但是其本身并不能广泛应用,普通大众也难以与其直接接触。 ChatGPT 则完全不同,它是在人类三岁小孩就逐步形成的语言智能方面有了重大突破。   过去,在人工智能领域,在人比较难做的事情上,比如数学定理证明、下象棋,机器表现很好;但是在人容易做到的事情上,比如说话,常识推理,机器表现反而很差,这些人类基本的智能对机器来说很难,是人工智能最难啃的硬骨头。   这次的ChatGPT是在这方面有了一定的突破,因为是说话,不是下围棋,所以普通大众都可以成为ChatGPT的用户,也就是说ChatGPT天生具有广泛的用户基础,再加上其令人惊艳的表现,这些使得其发布后用户量迅速增长,火出圈!   2. ChatGPT不仅仅是聊天,如果把它限制为聊天,那就显著降低了它的价值和意义。 OpenAI 根据自己同类产品API的调用分析,除了纯聊天之外,用户还把它用于文本生成、开放域问答、头脑风暴、改写、摘要、分类等。   ChatGPT是对话式AI迈向真正实现的第一步,从互联网层面看,它可以作为信息入口,与搜索引擎相结合;从文案办公方面看,它可以与办公软件相结合,增强人的办公效率;从人机交互角度看,它体现的是一种基于语言的自然交互方式,可以与元宇宙、数字人结合。   除此之外,它还可以应用于机器人,充当机器人大脑。如果从人类信息发展的历史尺度上看,它是在人与机器之间的信息接口上有了很大突破。   3. ChatGPT是近几年技术快速发展和不断更新迭代、多种技术叠加在一起形成质变的产物,是自然语言处理领域近年来研究的结晶。   其底层的技术,包括Transformer、自监督学习、微调、人类反馈强化学习、AI对齐等,在自然语言处理和人工智能领域都有广泛的研究和应用。   但是ChatGPT将这些技术巧妙地结合在一起,有效规避了大模型的未对齐行为,利用了大模型规模带来的智能突现能力,增强了大模型的指令学习能力和用户意图捕获能力,解锁了大模型的泛化能力,这些能力叠加在一起形成了ChatGPT的质变效果。   4. ChatGPT探索了一种使机器获得语言智能的有效技术路线,但这个方向仍然需要在科学和技术上进一步探索。   技术上,其他的技术路线是否可以达到同样效果?   近几年,大模型研究技术架构上出现了同质化趋势,Transformer独步天下,GPT路线占据绝对统治地位,这对未来技术创新并不是好事;   科学上,ChatGPT一类技术体现了技术先行科学滞后的典型特点,为什么大模型有突现能力?对齐之后的泛化能力是如何形成的?语境学习的机制是什么?   这些问题目前都没有明确的答案,科学回答这些问题,显然可以进一步推动技术发展。   5. ChatGPT技术虽然取得了重要进展,但仍然面临诸多挑战。   第一,虽然采用了人类反馈强化学习(RLHF)AI对齐技术,但是生成的内容仍然存在未对齐行为,如不符合常识,存在偏见、歧视等内容,信息真实性有时存疑(即“一本正经地胡说八道”),未来在AI对齐技术上需要进一步研究和突破;   第二,以ChatGPT为代表的大模型技术通常被具有丰富算力和数据资源的企业垄断,且不开源,不利于大模型技术研究和突破;   第三,目前大模型的算力消耗非常庞大,要实现大规模真实场景应用,模型轻量化技术需要进一步探索;   第四,要提升模型的可解释性,要研制相关技术使得ChatGPT为代表的大模型技术可以自我追溯信息源头,增强可信性;   第五,ChatGPT背后还存在很多科学问题未有明确答案,如大模型突现能力是如何形成的?语境学习机制是什么?AI对齐为什么使大模型具有指令泛化能力?这些科学问题的探索将会推动未来技术更好地发展。   二、ChatGPT技术发展   6. GPT-3之前的大模型技术路线和架构是多种多样的,以BERT为代表的Encoder大模型、以GPT为代表的Decoder大模型、以T5为代表的Encoder-Decoder大模型等,但是从GPT-3之后,大模型技术路线趋于单一化。   包括Google的PaLM、LaMDA,Meta AI的Galactica、OPT,Nvidia/Microsoft的Megatron-Turing,AI21 Labs的Jurassic-1,DeepMind的Gopher、Chinchilla,Hugging Face的BLOOM,国内华为的Pangu-a,浪潮的Yuan-1.0等千亿级参数规模的大模型,基本上都是采用GPT-3的Decoder架构,可能是因为训练成本太高,采用其他未验证的架构,试错成本高,跟随GPT-3成功路线进行微创新是最好的选择。   7. GPT-3 2020年3月发布后,国内外研究机构相继快速跟进,上述提到的大模型基本上都是在2021-2022期间研发出来,也就是说从技术路线上总体滞后GPT-3 1-2年时间。   8. GPT-3文本生成结果比之前的模型有大幅度提升,但同时也存在很多问题,如各种偏见、歧视、潜在的滥用等。   鉴于这些问题,大模型研究开始逐步重视AI对齐研究,即使得大模型输出结果与人的意图、价值观等对齐。   一些瞄准通用人工智能的企业,如OpenAI、DeepMind纷纷成立专门的AI Alignment研究团队,招兵买马,将AI Alignment视为通向AGI之路必须要解决的问题。   来自这两个团队研究人员,甚至成立了一家非盈利研究机构:ARC(对齐研究中心)。   9. 基于大模型的对话agents纷纷在2021-2022期间开始研制,包括Google的 LaMDA、DeepMind的Sparrow、Anthropic的Claude等,这些dialogue agents无一例外都进行了AI对齐。   10. RLHF并不是唯一的AI对齐技术,面向language agents的对齐有很多方法、很多策略,需要更多探索。   11.模型编辑、稀疏模型、半参数检索模型,这些技术,在大模型发展中同样值得深入研究。大模型编码的知识不应该是一成不变的,将知识全部编码到模型链接和神经元中,可能也并不是最优选择。   12. 除了AI对齐和大模型赋能ChatGPT之外,OpenAI在长文档摘要、自然语言描述转为代码等方面也做了很多工作,这些工作同样增强了ChatGPT相应能力。   三、国内同类技术   13. 2020年OpenAI发布1750亿参数的GPT-3之后,国内企业和科研机构,同Google、微软、DeepMind、Meta AI等一样,于2021-2022年间,研制了类似于GPT-3架构的千亿级大模型。   因此,在底层技术上我们不存在任何问题。   14. 但是要实现中国版的ChatGPT,需要在多个方面加强研究,压实工作。   首先,在数据上,我们要使用与GPT-3相当的数据量和计算量训练模型,目前中文缺乏像英文那样的多个开源大规模数据集,各家企业使用的中文数据也很少开源,很多时候数据也未像OpenAI那样进行精细处理以提升质量;   其次,国内在AI对齐研究上需要加强,尤其是在已经预训练的大模型上,要进行对齐,要继续优化和精调大模型;   再次,要充分调动以大模型为代表的新型AI技术的研发活力,鼓励已经研制的大模型向大众公开,接受广大用户检测,同时也要积极培育专攻某一类核心技术(如大模型AI对齐技术)的初创企业,不求短期市场回报。   四、ChatGPT背后大模型技术的争议   15. 大模型的优缺点在业内讨论非常多,也非常激烈,大模型存在伦理问题、环保问题、资源垄断不开源问题等等,这些问题学术界和产业界都在进行研究,寻找技术、策略、机制等方面的解决方案。   16. 个人认为,业内对大模型争议最激烈的地方在于大模型是否是通向AGI之路、是否具备类人理解力、是否具有情绪/意识,这些问题已经不单纯是在自然语言处理领域、人工智能领域讨论了,一些争论已经在哲学层面进行了,包括借助思想实验等。   除此之外,这些问题涉及的AGI、意识等,对它们的定义,本身也没有共识,存在争议。   17.就大模型是否能像人一样“理解”用户输入的句子以及自身生成的文本这个问题而言,从技术层面看,大模型本质上是根据单词共现概率基于已生成的单词序列预测下一个单词,共现概率或依存关系是大模型从海量文本数据中建模学习而来。   由于大模型的数据都是符号,模型是无法像人一样将意义、概念奠基到符号之外的物理世界,符号系统在语意上是不充分的。   符号系统本身并不能真正理解符号的意义,所有的意义都是被外部观察者或设计者所赋予的,即使将视觉模态加入到大模型中,大模型学到的也只是符号和视觉元素之间的统计关联关系,仍然不能奠基到真实的物理世界。   也就是说,大模型无法做到类人理解。这里涉及到人工智能图灵测试、中文屋思想实验、符号奠基问题等,感兴趣者可以参考《神经机器翻译:基础、原理、实践与进阶》第19章短评“预训练技术争议与符号奠基问题”。   18. 自然语言处理和人工智能领域的研究者在学术论文中或者介绍AI模型时,经常使用拟人化的描述,如“理解”、“学习”等,主要是为了让读者或听众更容易理解模型或算法的原理,并不不代表机器、模型真的像人一样思考、学习、理解。   五、未来趋势   19. ChatGPT类技术其背后体现的,首先是预示着一种深层次的信息革命。   人类发明计算机和互联网之后,获取、存储和使用信息的方式出现了翻天覆地的变化,但最近几十年基本上没有大的变动,主要以搜索引擎为主,呈现的信息通常需要用户进行二次处理或再加工才能满足要求。   ChatGPT呈现的信息则通常可以直接满足用户的需求,或通过交互方式逐步达到用户的要求,虽然目前还存在信息可靠性问题,但相信未来这些问题会不断得到改善。   其次是人和机器关系会出现重大转变。   以ChatGPT为代表的一类技术在精准捕获用户的真实意图方面迈出了一大步,一旦机器可以“理解”人类意图并完成相应任务,人和机器的交互就不再需要翻译成机器语言,而是直接使用人类语言作为交互载体。   再次是机器生成内容的能力大大增强。   一些文字内容类工作,机器可以辅助人类,人的工作效率会得到极大提升,一些“枯燥乏味”的文字工作则可交给机器完成,人专注于更高层次的内容、思想编辑工作,或通过人机交互方式协同生成更好的内容。   20. 基于以上趋势,未来人类获取信息的方式、与机器交互的方式都会出现变化。   与人类意图、价值观、伦理准则高度对齐的信息智能体会帮助我们高效获取信息、生成信息和发布信息。   以ChatGPT为代表的大模型及其后续更新技术会逐步充当各种机器、设备、机器人的“大脑”,人机之间的交互会更加以人为中心,而不是以机器为中心。   相应的技术会对多个行业、领域产生影响,如教育(规范使用ChatGPT等类型技术,避免学生使用它们做作业,发挥新技术对教育的积极辅助作用,而不是成为作弊利器)、医疗(将大模型技术应用于医疗问答、药物研发、DNA/蛋白质建模等)等,传统的计算机软件,如搜索引擎、办公软件等,也会受到影响和冲击。 更多信息可以来这里获取==>> 电子技术应用-AET << .