人工智能的“无能”正是人类的“能”

2012年以来,人工智能研究进入第三个高峰——在深度模型、高质量数据、强大算力等方面取得重要成果,并推广大量产品和应用……通用人工智能(AGI)的曙光已近在眼前。然而,兴奋中也有疑惑:人类的智慧是通过数十万年的生命密码积累和代代相传的。人工智能必须超越人类的智慧,建立一个没有场景的世界的初始模型。这难道不是某种反人类的心态吗?那么,人工智能不能做什么呢?带着这些问题,记者采访了复旦大学计算与智能创新学院张俊平教授。他在《人工智能的边界》一书中给出了自己的想法。面对激烈的讨论和期待,我们需要冷静地做理性地wn。上观新闻:首先我想问,科学的人工智能应该如何定义?当前社会对人工智能的普遍认识有哪些领域需要纠正?张俊平:人工智能的基本定义可以概括为三个要素:学习、模型和数据。具体来说,它是一种利用特定的学习方法,基于数据构建模型,以在一定程度上实现给定目标的技术。关于认知矫正,最关键的一点是,很多人认为当前的人工智能正在快速走向通用的超级人工智能。这实在是一个误会。模仿人类智能包括四个主要组成部分:感知、理解、决策和执行。目前,人工智能在认知领域做得比较好,特别是在自然语言处理、抽象概念理解等方面。但在认识层面上,它仍然存在很多不足。对于人们已经习惯的感知行为,比如行走、选择物体等,由于模拟自然界生命传感器的技术限制,人工智能的表现还远远不够自然。这也是人形机器人动作不够流畅的主要原因。此外,目前人工智能的认知能力是通过海量的数据、大量的GPU(图形处理单元)计算能力和深度模型来实现的。这种方式能源效率很低,一次训练就要消耗20万块显卡,一年的用电量相当于一个中小城市一年的用电量。这与人类智能的高性能完全不同。它只在某些领域持续工作,无法达到人类智能的水平本质上的智慧。上观新闻:您的书《人工智能的前沿》分为三个部分,分别探讨人工智能能做什么、不能做什么以及未来会是什么样子。 “人工智能不能做什么”这部分目前在社会讨论中是未知的。是什么让您决定深入探讨这个话题?张俊平:这个话题的讨论来自德雷福斯在20世纪70年代第一波人工智能热潮期间写的《计算机不能做什么——人工智能的极限》一书。五十年过去了。尽管人工智能发展迅速,但仍然存在许多明显的缺陷。有必要重新审视这些限制。从实践的角度来看,人工智能和人类智能之间存在着重要的区别:人有一个发展的过程,但人工智能的大部分结构都是为了从一开始就是固定的,任务只能在既定的框架内安排;自然界的生命是“感知第一,认知第二”,但现在的人工智能更注重理解,却弱化了理解,形成了不合理的“倒金字塔”结构。此外,模拟人脑还存在硬件和软件的双重限制,特别是伦理限制,这让我们很难深入看到大脑的工作机制。现在业界和社会对人工智能的期望有点过分了,10年或者10年后人工智能会是什么样子? 20年的范畴是技术路线。人类的智能表现将越来越像机器而不是生命体来表达,人们认为它有情感,但它显然不是真实的情感,而是基于数据的模拟输出。代码的逻辑,偶尔像“情感”这样的表达,本质上是程序优先级变化的反映,实际上并不能产生自我意识。和我们一样,机器的“情感”其实就是人类本身。你同意这个观点吗?张俊平:机器和宠物有一个重要的区别:宠物可以通过眼神、动作等方式直接表达情感,而目前人工智能的“情感表达”主要依靠语言。很难确定这种语言输出是机器独立生成的还是统计数据的结果,因此不能等同于人类对宠物的情感投射。上观新闻:人们对于人工智能的态度是矛盾的。一方面,他们期望它有意识和情感,但另一方面,他们又害怕它会有,担心被背叛和破碎。你有吗?墨水这种担心有必要吗?张俊平:如果人工智能真的觉醒了自我意识,可能会带来麻烦。它在引用、计算、存储、表达速度等方面都远远优于人类,一旦它认识到自己的自由,它就可以不再像叛逆的孩子一样听从人类的指令。需要保持警惕。但目前来看,人工智能距离发展自我意识还很远。未雨绸缪,应对AI暴走。看新闻:当前,大型车型发展迅速。人们通过输入即时的单词就可以得到相应的输出。高质量的训练数据和高效的训练方法是提高性能的关键。但一系列运行问题也随之而来:比如人工智能“幻觉”导致虚假信息甚至捏造作品的产生;基于人类数据的培训形成闭环,会阻碍创新;的选择训练数据导致人工智能中的“歧视”行为,比如美国大学的AI评分系统给黑人学生打低分。你认为这些是人工智能的“原罪”吗?它们是不可避免且无可争议的吗?张俊平:失控的三种类型分别对应于错觉、变化限制和偏见。让我们一一看看。首先,关于幻觉。许多研究表明,人工智能的幻想无法完全消除。这本质上是组合包装的问题,组合包装是根据现有规则运行的,无法判断看不见的信息的真实性,所以总会产生虚假内容。虽然有一些方法可以通过搜索抹布(采取加法的生成)、搜索互联网等来减少幻觉,但并不是每个人都有这些工具。同时,人工智能本身可能并不知道其中的意义。宁的幻觉,有时它只能“硬编码”答案,如果它找不到。更令人担忧的是,幻觉可能会被故意用作欺骗公众的武器。比如,近期一些自媒体发布的有关俄乌战争的信息,真假难辨。认知能力较差的群体,比如老年人,可能会因此而恐慌。人工智能生成视频的流行进一步模糊了“眼见为实”之间的界限。第二,关于改变。我认为成年人使用人工智能问题不大,因为他们有一定的学习基础和识别能力,可以利用人工智能来提高自己的创新效率;但对于青少年来说,如果完全依赖人工智能,就会受到其发展的限制,避免自身能力和学习方法的改变。因此,建议那些年轻人在使用人工智能时,应该自己思考,实在解决不了问题再寻求帮助。第三,关于偏见。将来可能会出现此问题。这会更棘手。目前,大型模型训练大多依靠机器自动生成数据。偏见很难追踪和消除,只能单独调查。此前曾发生过一件事。在国内一个拥有大量用户的应用平台上,人工智能翻译功能不小心将“We are all Pallians(我们都是巴勒斯坦人)”翻译成了“we are all Jesus”。这是训练数据或政策中隐藏偏差的常见情况。这种未知的“数据炸弹”可能存在于世界许多地方,并在危急时刻爆炸,误导公众甚至引发安全问题。需要格外小心。上观新闻:那么,在国家信息管理层面,有没有防范措施解决“失控”问题的措施有哪些?张俊平:在立法层面,国家已经有相关指示。主要要求是所有人工智能生成的内容都必须有明确的标签,包括使用的模型和版本。这是最简单、最有效的方法。不可忽视的是,平台也必须承担发现的责任。小红书等社交媒体明确标注疑似AI内容,这是对用户的强制提醒。虽然水印很容易删除,但从源头上标记它们可以减少错误信息的传播。这就要求我们跟随人工智能技术的发展,加强反人工智能技术的研发,以形成有效的壁垒,防止无序增长。开发通用大型模型的路线仍然存在争议。以上消息:全球人工智能研究似乎正在考虑通用人工智能(AGI)作为最终目标。主要观点是,任何人只要掌握了通用大模型,就会获得类似于英国第一次完成工业革命时的降维能力,并成为最流行技术的领导者。国家之间的竞争也在加剧。你同意这个观点吗?张俊平:大家都希望实现通用人工智能,但当前的两条主路——大模型和人工智能的发展,都存在高能耗、依赖海量数据的问题。理论上,如果世界上所有的数据都能包含在内,似乎所有可回答的问题都可以得到解决,但现实中仍然存在很多局限性。首先,有些内容本质上是可疑的。例如,机智敏捷。机智并不是人类独有的能力。大多数智慧生物还具有对紧急情况做出快速反应的能力。这种能力是由于环境而进化的的需求,并在自主发展过程中逐步完善。整个智能生活都离不开传感器。苍蝇是我们最熟悉的昆虫之一,它们的反射能力非常强。当我们举起苍蝇拍时应该有强烈的感觉。快速反应的贡献者之一是其身体上的传感器,尤其是复眼。智能生活中存在很多类似的传感器和压力反应。它们的一个共同特点是拥有相对较多数量和类型的传感器,可以利用传感器收集到的丰富信息,将信息分类为易于识别的事件,并通过简单的计算快速做出响应。相比之下,深度学习作为当今人工智能中相对重要和流行的一个分支,似乎较少考虑做更多的前端处理。相反,这类似于“聪明的女人可以无米之炊”的想法这样做Vari与人工智能相关的任务 夸张地说,深度学习意味着“给我一个烂摊子,我可以收拾它”。如果没有数据,我自己做;如果没有功能,我会深入构建它们;如果没有区分能力,我就添加各种attention和loss函数;我将特征学习和预测合并到网络中,以实现端到端的学习思想,这通常可以解决很多“无仪表”后端问题,但我并没有考虑获得更多不同的“仪表”。因此,我们经常根据具有固定输入特征的数据集来评估算法性能。虽然这为算法比较提供了公平的环境,但模型固化后我们很难再引入可变的输入特征。我们可以让传感器变得更好吗?遗憾的是,我们在传感器设计上还存在很多不足,这在一定程度上限制了人工智能做出智能反应或者发展智能智能的能力。绅士。显然,快速智能与智能体内的各种传感器密切相关。同时,人类和动物之间的传感器的形式和功能也存在许多差异。这种差异使得科学家们相信地球和同一个宇宙对于每种动物来说看起来都非常不同,并为这种差异创造了一个术语——umwelt(德语中通常翻译为“观察到的世界”或“生活世界”),它指的是单个有机体可以看到的周围世界。这种差异可能是未来构建多元化的卡塔利努汉人工社会需要考虑的重要因素。此外,不难看出,人类在传感器方面并不比其他动物更好,有的甚至出现了明显的恶化。那么,为什么人类在智力和食物链上变得比其他动物更优秀呢?这些都是人工智能研究值得我们深入思考的问题。其次,虽然时代在不断变化,总有例外,排除了通用人工智能全面发展的可能性。最后,这条道路本身也存在争议。例如,有人认为大模型的开发模式不会实现通用人工智能。业界对此尚无共识。上观新闻:目前主要路径是“堆砌算力和能源消耗”。王子这种量变导致质变的理念在人工智能领域能有效吗?张俊平:这个模式确实取得了一些成效。业界有一个共识叫“涌现”——当数据集达到1022次方以上时,人工智能的智能水平大幅跃升。但要突破到通用人工智能的水平,这个量可能还不够。人脑是一个低能耗的智能载体,但当前高能人工智能的发展路径与自然界生命的智能进化完全不同。我们现在只找到了一条可行的道路,但它是否是通向通用人工智能的正确方向值得怀疑。由于还没有发现第二条更好的路径,我们只能继续探索现有的路径。或许随着人们不断探索太空的宏观世界和自身的微观世界,未来我们会找到更适合的发展方向。技能单一、职业危害会更加严重。上观新闻记者:随着人工智能进入应用领域,一些人工智能产出存在明显的伦理违规行为,引发困扰。张俊平:道德建设必须保持,但如何落实是一个难题。从事伦理研究的人往往不了解人工的底层逻辑和编码人工智能本身并没有能力进行道德判断——在它看来,它只能把那些人当作一个对象,没有对错之分。此类问题今后可能会层出不穷,主要原因就是“爆爆”。就像医疗诊断系统一样,即使我们针对大多数情况制定了判断规则,仍然会存在大量超出预设规则范围而无法准确判断的异常情况。人工智能问题也是如此。即使我们增加很多限制,也不可能用尽所有“罐头”。总有超出情节的内容。为了缓解这种情况,人工分析是必要的补充,而人的判断是最后一道防线。但我们也必须承认,此类问题无法从根本上解决,只能通过不断完善政策、加强审计来降低其发生的可能性。 S杭观报:我们常说“生产力决定生产关系”。当前人工智能的快速发展是新生产力的主要推动者。基于这样的背景,社会科学中的生产关系和分配关系的研究是否需要谨慎?张俊平:我们现在确实处于一个尴尬的阶段。人工智能已经展现出强大的能力来取代人类的工作,特别是与学习相关的工作,比如程序员、艺术创作者、棋手、秘书等。然而,人工智能将消除一些低于其水平的实用性。从产业发展的角度来看,人工智能可以降低成本、提高效率,这会导致部分人的收入减少,甚至迫使他们离开相关行业。对此,个体层面需要主动适应:一是要了解人工智能发展的进展,不要忽视其影响;第二,避免依赖单一专业,提高综合能力,因为我们无法预测人工智能哪个专业领域会发展成功,单一技能、单一专业的风险会越来越大。事实上,国家层面正在做出调整。今年8月,国务院发布《关于深入实施“人工智能+”行动的意见》,提出六大行动,涵盖科技、产业发展、提升科技、民生福利、管理技能、全球合作等领域,旨在推动人工智能与经济社会各行业深度融合。覆盖全产业链的人工智能将创造大量就业机会。“人工智能?”今天答案是什么?与20年前或10年前相比,您的看法有变化吗?张俊平:作为研究人员ch关于人工智能的不断深入,我认为其实并没有什么重要的变化。主要一是基于对人工智能边界和局限性的理解。人工智能只是人类的辅助工具。它的发展是为了让人类的生活更加便捷、高效,而不是取代那些人类的创造力——情感理解、价值判断等能力是自然界长期进化的结果,很难用技术完全复制。人工智能还远未完全取代人类。原标题:《人工智能的“无能”就是人类的“能力”》栏目主编:王一图 图片说明:如今行业和社会对人工智能的期望会有所超越人类,大家都在热议人工智能能否在10年、20年后超越人类。讨论什么是“不能做的”充分冷却理性,让大家客观看待人工智能的发展速度。图片来源视觉中国提供:作者:解放日报彭德谦 特别声明:以上内容(如有,包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。 注:以上内容(包括图片和视频,如有)由网易HAO用户上传发布,网易HAO为社交媒体平台,仅提供信息存储服务。