文章引自:https://mp.weixin.qq.com/s/jHIJrCDLdnVd3XNh3zkVIQ
作者:Web天空之城
杰弗里·辛顿(Geoffrey Hinton)被公认是人工智能的教父,数十年前他就支持和推动了机器学习,随着像ChatGPT这样的聊天机器人引起广泛关注,CBS的主持人于2023年3月初在多伦多的Vector研究所采访了Hinton。
全长40分钟的采访视频最近放了出来(https://www.youtube.com/watch?v=qpoRO378qRY)整个采访干货满满,非常精彩。作者对采访内容进行了翻译整理,和大家分享。
问:您如何描述当前AI机器学习领域的时刻?
答:我认为这是一个关键时刻。ChatGPT表明,这些大型语言模型可以做一些令人惊奇的事情。普通公众突然开始关注这个领域,因为微软发布了一些产品,他们突然意识到了大公司在过去五年里所知道的东西。
问:你第一次使用ChatGPT时的想法是什么?
答:在ChatGPT前,我已经使用了许多类似的东西,所以ChatGPT并没有让我感到惊讶。GPT-2(这是早期的一种语言模型)让我惊讶,谷歌的一个模型也让我惊讶,它实际上可以解释为什么一个笑话很好笑。它用自然语言告诉你为什么一个笑话很好笑。当然,并非所有笑话都可以,但对于很多笑话,它都可以告诉你为什么它们好笑。
问:如果ChatGPT并不那么令人惊讶或令人印象深刻,那么您对公众对它的反应感到惊讶吗?因为反应很大。
答:是的,我认为每个人都有点惊讶于反应如此之大。这是最快增长的应用程序。也许我们不应该感到惊讶,但研究人员已经习惯于这些东西实际上是有效的。
问:你在AI领域一直处于领先地位,半个世纪都领先于其他人,对吗?
答:其实不然。在AI领域,有两种思路。一种是主流AI,另一种是关于神经网络的。主流AI认为,AI是关于推理和逻辑的,而神经网络则认为,我们最好研究生物学,因为那些才是真正有效的东西。所以,主流AI基于推理和逻辑制定理论,而我们基于神经元之间的连接变化来学习制定理论。从长远来看,我们取得了成功,但短期内看起来有点无望。
问:回顾过去,了解你现在所知道的,你认为当时你是否可以说服人们?
答:我当时可以说,但那并不能说服人们。我可以说,神经网络在20世纪80年代没有真正奏效的唯一原因是计算机运行速度不够快,数据集不够大。然而,在80年代,一个重要的问题是,一个拥有大量神经元的大型神经网络,计算节点和它们之间的连接,仅通过改变连接的强度,从数据中学习,而没有先验知识,这是否可行?主流AI的人认为这完全荒谬。尽管这听起来有点荒谬,但它确实有效。
问:您是如何知道或为什么相信这种方法会奏效的?
答:因为大脑就是这样。你必须解释我们是如何做到这些事情的,以及我们是如何做到那些我们没有进化出来的事情的,比如阅读。阅读对我们来说是非常新近的,我们没有足够的进化时间来适应它。但我们可以学会阅读,我们可以学会数学。所以一定有一种在这些神经网络中学习的方法。
问:昨天,曾与您共事的Nick告诉我们,您并不是真正对创建AI感兴趣,您的核心兴趣是理解大脑是如何工作的。
答:是的,我真的想了解大脑是如何工作的。显然,如果你关于大脑工作原理的错误理论带来了好的技术,你可以利用这一点来获得资助。但我真的想知道大脑是如何工作的。我认为目前人工神经网络与大脑实际工作原理之间存在一定的分歧。我认为它们现在走的是不同的道路。
问:那么我们现在还没有采取正确的方法?
答:这是我的个人观点。
问:但所有大型模型现在都使用一种叫做反向传播的技术,而这种技术是您帮助推广的。
答:我认为大脑并不是在做这个。有两条通往智能的不同道路。一条是生物学途径,另一条是我们所拥有的模拟硬件途径。我们必须用自然语言进行沟通,还要向人们展示如何做事情,模仿等。但我们在交流方面做得很糟糕,与现在运行在数字计算机上的计算机模型相比,我们的交流能力差得多。计算机模型之间的沟通带宽非常大,因为它们是相同模型的克隆,运行在不同的计算机上。正因为如此,它们可以查看大量的数据,因为不同的计算机可以查看不同的数据,然后它们结合了它们所学到的东西,远远超出了任何人能够理解的范围。尽管如此,我们仍然比它们聪明。
问:所以它们就像是天才白痴吗?
答:对,ChatGPT知道的比任何一个人都多。如果有一个关于知识量的比赛,它会轻松击败任何一个人。它在智力竞赛中表现出色,可以写诗,但在推理方面并不擅长。我们在推理方面做得更好。我们必须从更少的数据中提取我们的知识。我们有100万亿个连接,其中大部分是通过学习得到的,但我们只活了十亿秒,这并不算很长的时间。像ChatGPT样的东西,它们在许多不同的计算机上运行了比我们更长的时间,吸收了所有这些数据。
问:1986年,您在《自然》杂志上发表了一篇文章,提出了一个想法:我们将拥有一个由单词组成的句子,并预测最后一个单词。
答:是的,那是第一个语言模型,基本上就是我们现在在做的事情。1986年是很久以前的事情了。
问:为什么那时候人们还没有说“哦,好吧,我认为他找到了方法”?
答:因为那时候,如果你问我用多少数据训练了那个模型,我有一个简单的家庭关系模型,有112个可能的句子,我用其中的104个进行了训练,然后检查它是否正确预测了最后8个。它在预测最后8个方面表现得相当好,比符号AI更好。问题是那时候的计算机还不够强大。现在的计算机速度快了数百万倍,可以进行数百万倍的计算。我做了一个小计算,如果我拿1986年的计算机去学习一些东西,它现在仍在运行,但还没有完成。现在,学习这些东西只需要几秒钟。
问:你知道这是你的制约因素吗?
答:我并不知道,但我相信那可能是我们的制约因素。但人们对这样的说法嗤之以鼻,好像这是一个借口:“如果我有更大的计算机和更多的数据,一切都会好起来。现在它不起作用是因为我们没有足够的数据和计算能力。”这种观点被当作对事物无法正常运作的一种狡辩。
问:在90年代从事这项工作很困难吗?
答:在90年代,计算机在不断发展,但是那时确实有其他学习技术,在小型数据集上表现得和神经网络一样好,而且更容易解释,背后有更为复杂的数学理论。所以,在计算机科学领域,人们对神经网络失去了兴趣。但在心理学领域,他们仍然对神经网络感兴趣,因为心理学家对人类可能如何学习感兴趣,这些其他技术甚至比反向传播还不合理。
问:这是您背景的一个有趣部分,您之所以投身于这个领域,并非因为对计算机感兴趣,而是因为对大脑感兴趣。
答:是的,我原本对心理学感兴趣,后来我决定,如果不了解大脑,我们永远无法理解人类。在70年代,有一种时髦的观点认为,你可以在不关心大脑的情况下做到这一点,但我觉得那是不可能的。你必须了解大脑是如何运作的。
问:现在我们快进到2000年代,您回顾过去,是否认为有一个关键时刻,当时您觉得我们这一方将在这场争论中获胜?
答:大约在2006年,我们开始做所谓的深度学习。在那之前,让具有多层表示的神经网络学会复杂事物一直很困难。我们找到了更好的方法来实现这一点,更好的初始化网络的方法,称为预训练。在ChatGPT中,P代表预训练。T代表变换器,G代表生成。实际上,是生成模型为神经网络提供了更好的预训练方法。2006年时,这个理念的种子已经埋下,到了2009年,我们已经研发出了比最好的语音识别器更好的东西,用与其他所有语音识别器不同的技术识别您说的哪个音素。
问:那么2012年发生了什么大事呢?
答:实际上2012年发生了两件大事。其中一项研究始于2009年,是由我的两名学生在暑假进行的,他们的研究成果导致了语音识别的改进。这项技术被推广到了微软、IBM和谷歌等大型语音识别实验室。2002年,谷歌首次将其应用于产品,突然之间,安卓上的语音识别变得跟Siri一样好,甚至更好。这是深度神经网络在语音识别领域的一个应用,比以前提前了三年。
在那个时间点的几个月内,我的另外两名学生开发了一个物体识别系统。该系统可以查看图像,告诉你图像中的物体是什么,效果比以前的系统好得多。
这个系统是怎么工作的呢?有一个人叫李飞飞,和她的合作者创建了一个大型图像数据库,包含了1000个不同类别的100万张图像。你需要查看一张图像,并对图像中的主要物体进行最好的猜测。所以,这些图像通常会在中间有一个物体,比如子弹头火车或者哈士奇之类的东西。其他系统的错误率是25%,而我们的错误率是15%。几年之后,15%的错误率降到了3%,这已经接近人类水平了。
让我试着解释一下,让人们理解他们的方法与其他团队的方法之间的区别。假设你想在图像中识别一只鸟。图像本身,假设是200×200的图像,有200×200个像素,每个像素有三个颜色值RGB。所以你在计算机里有200x200x3个数字,就是计算机里的数字。任务是将这些数字转换成一个表示鸟的字符串。50年来,标准AI领域的人们一直试图做到这一点,但没有成功。将一堆数字转换成一个表示鸟的标签是很棘手的。
你可以这样做:首先,你可以制作特征检测器,检测像素的小组合。然后在下一级别,你可能会说,假设我有22个边缘检测器,它们以一个细角相连,那可能就是一只喙。然后在更高的层次上,我们可能有一个探测器,它会说,嘿,我找到了这个类似喙的东西,还找到了一个圆形的东西,它们在空间关系上大致是一只鸟的眼睛和喙。所以下一个级别,你会有一个鸟类探测器,它会说,如果我看到这两个特征,我认为这可能是一只鸟。你可以想象通过手动连接这些特征检测器。而反向传播的思想就是在一开始随机设置连接权重,然后根据预测结果调整权重。如果预测出现错误,那么你就通过网络反向计算,并提出以下问题:我应该如何改变这个连接强度,使其更不容易说出错误答案,更容易说出正确答案?这称为误差或差异。然后,你要计算每个连接强度如何进行微调,使其更容易得出正确答案,更不容易得出错误答案。
一个人会判断这是一只鸟,然后将标签提供给算法。但是反向传播算法只是一种计算方法,用于确定如何改变每个连接强度,使其更容易说鸟,更不容易说猫。算法会不断尝试调整权重。现在,如果你展示足够多的鸟和猫,当你展示一只鸟时,它会说鸟;当你展示一只猫时,它会说猫。事实证明,这种方法比手动连接特征检测器要有效得多。
这就是我的学生在图像数据库上所做的事情。他们让这个系统工作得非常好。这些学生非常聪明,事实上,其中一名学生,他是ChatGPT背后的主要人物之一。那是人工智能的一个巨大时刻,他实际上参与了这两个项目。
你可以想象,当你调整这个小旋钮时,它会说出“鸟”,这感觉就像是一个惊人的突破。这主要是因为计算机视觉领域的其他人认为,这些神经网络只适用于简单的任务,例如识别手写数字,但这并不是真正复杂的图像,具有自然背景等。他们认为这种方法永远不会适用于这些大型复杂图像,但突然之间,这种方法就成功了。
值得称道的是,那些曾经坚定反对神经网络的人,当看到这种方法成功时,他们做了科学家通常不会做的事情,也就是说:“哦,它有效,我们会采用这个方法。”人们认为这是一个巨大的转变。因为他们看到这种方法比他们正在使用的方法更有效,所以他们很快就改变了立场。
当人们既在思考机器,也在思考我们自己的思维方式时,我们常常认为,输入是语言,输出是语言,那么中间一定也是语言。这是一个重要的误解。实际上,这种观点并不正确。如果这是真的,那么被称为符号人工智能的方法应该非常擅长进行机器翻译,比如把英语转换成法语。你会认为操作符号是实现这一目标的正确方法。但实际上,神经网络的效果更好。当谷歌翻译从使用符号方法转向神经网络时,效果大大提高了。我认为,在中间的部分,你会发现有数百万个神经元,它们中的一些是活跃的,一些则不是。符号只能在输入和输出处找到,而不是在整个过程中。
现在,我们在多伦多大学附近,虽然并非在多伦多大学里,但在这里和世界各地的大学里,我们教育了很多人学习编码。教这么多人编码是否仍然有意义呢?我不知道答案是什么。在2015年左右,我曾经声称,在未来五年内,计算机将在图像识别方面超越放射科医生,因此教他们识别图像中的东西已经没有意义了。事实证明,我的预测错误了,实际上需要10年,而不是5年。在精神层面上,我并没有错,只是时间预测出了差错。计算机现在在很多医学图像识别方面与放射科医生相当,尽管它们还没有在所有方面做得更好,但它们只会变得更好。
因此,我认为有一段时间,我们仍然需要编码人员。我不知道这段时间会有多长,但我们需要的编码人员会减少。或者,我们可能需要相同数量的编码人员,但他们将能够实现更多的成果。
问:我们在这里谈论的是一家初创公司,昨天我们拜访了他们。你是他们的投资者,那么,什么是说服你的投资理由呢?
答:首先,他们是好人,我曾与其中的几位合作过。其次,他们是第一批意识到需要将Google、OpenAI等地开发的大型语言模型带给企业的公司。这对公司来说将非常有价值,因此,他们一直在努力实现这一目标,而且在这方面取得了领先地位。所以,我认为他们会成功的。
问:你曾经提到过一个我觉得非常有趣的观点,那就是未来可能会有一种新型计算机,专门解决这个问题。这个观点是什么?
答:我们有两种途径来理解智能:一种是生物途径,其中每个大脑都是不同的,我们需要通过语言来在不同的大脑之间传递知识;另一种是目前的AI神经网络版本,你可以在不同的计算机上运行相同的模型,实际上它们可以共享连接权重,因此它们可以共享数十亿个数字。
这就是我们如何让一只鸟跳舞的。它们可以共享识别鸟的所有连接权重,一个可以学会识别猫,另一个可以学会识别鸟,它们可以共享它们的连接权重,这样每个模型都可以做两件事。这正是这些大型语言模型所做的,它们在共享。但这种方法只适用于数字计算机,因为它们必须能够模拟相同的事物。而不同的生物大脑无法相互模拟,因此它们无法共享连接。
问:为什么我们不坚持使用数字计算机呢?
答:因为电力消耗。你需要很多电力。虽然随着芯片的改进,电力需求在减少,但运行数字计算机仍然需要大量的电力。你必须让计算机以高电力运行,以便它能够精确地以正确的方式工作。然而,如果你愿意让计算机以较低的电力运行,比如大脑所做的那样,你会允许一些噪声等,但特定系统会适应该特定系统中的噪声,整个系统将正常工作,尽管你没有以如此高的电力运行它以便它能精确地按照你的意图进行工作。大脑的运行功率是30瓦,而大型AI系统需要像兆瓦这样的功率。所以我们在30瓦上进行训练,而大型系统则使用兆瓦,它们有很多相同的东西。所以你知道,我们在谈论功率需求方面的1000倍差距。因此,我认为会有一个阶段,我们会在数字计算机上进行训练,但一旦某个AI系统训练完毕,我们会将其运行在非常低功耗的系统上。所以,如果你想让你的烤面包机能和你对话,你需要一个只花费几美元的芯片,而且它能运行像ChatGPT这样的程序,那么最好是一个低功耗和低芯片。
问:你认为接下来这项技术将做些什么,以影响人们的生活?
答:很难选一个。我认为这将无处不在。它已经开始无处不在了,ChatGPT只是让很多人意识到了这一点。它将无处不在。但实际上,当谷歌进行搜索时,它会使用大型神经网络来帮助决定向你展示什么最佳结果。我们现在正处于一个过渡点,其中ChatGPT像一个“白痴天才”,它也并不真正了解事实真相。它接受了大量不一致的数据训练,试图预测下一个网络用户会说什么。人们对很多事情有不同的观点,而它必须有一种混合所有这些观点的方式,以便可以模拟任何人可能说的话。这与一个试图拥有一致世界观的人非常不同,特别是如果你想在世界上采取行动,拥有一致的世界观是非常有益的。
我认为接下来会发生的一件事是,我们将朝着能够理解不同世界观的系统发展,并且能够理解,好吧,如果你有这个世界观,那么这就是答案。而如果你有另一个世界观,那么答案就是另一个。我们得到我们自己的真相。
问:那么这个问题是不是因为,你和我可能都相信(除非你是一个极端的相对主义者),实际上在很多话题上,甚至在大多数话题上,确实存在一个事实真相,比如地球实际上并不是平的,只是看起来平而已,对吧?
答:是的,所以我们真的想要一个模型说,好吧,对某些人来说,我们不知道吗?这将是一个巨大的问题,我们目前还不知道如何处理。目前我并不认为微软知道如何处理这个问题。他们也不知道。这似乎是一个巨大的治理挑战。谁来做这些决策?这是非常棘手的事情。你可不希望某个大型盈利公司来决定什么是真实的。但他们正在控制我们如何使用这些东西。谷歌目前非常小心,不要那样做。谷歌会做的是将你引向相关文件,这些文件中会有各种各样的观点。
问:那么他们还没有发布他们的聊天产品,至少在我们谈话的时候还没有,对吧?
答:是的,但我们已经看到,至少那些已经发布聊天产品的人觉得有些事情他们不希望用他们的声音说出来,所以他们会去干预它,以免说出冒犯人的话。是的,但这种方式你能做的事情是有限的。总会有你想不到的事情,对吧?是的。所以我认为谷歌在发布聊天机器人时会比微软更谨慎,并且它可能会附带很多警告,这只是一个聊天机器人,不要一定相信它所说的。在标签上小心,或者在干预方式上小心,以免做出糟糕的事情。所有这些方面都要小心。在如何将其作为产品呈现以及如何进行训练方面要小心。是的。并努力防止它说出不好的东西。但是,谁来决定什么是坏事呢?有些坏事是相当明显的,但是很多最重要的事情并不是那么明显。所以,目前这是一个很大的悬而未决的问题。我认为微软发布ChatGPT是非常勇敢的。
问:你是否认为这是一个更大的社会问题,我们需要监管或大规模公共辩论来处理这些问题?
答:当涉及到真相问题时,我的意思是,你是否希望政府来决定什么是真实的?这是个大问题,对吧?你也不希望政府来做这件事。我相信你已经对这个问题进行了深入的思考很长时间,我们如何在你只是将它发送到世界和我们找到策展它的方法之间找到平衡?像我说的,我不知道答案,而且我不相信有人真的知道如何处理这些问题。我们必须学会如何快速处理这些问题,因为这是一个当前的大问题。但是,关于如何完成这件事,我不知道,但我怀疑,作为第一步,至少这些大型语言模型必须了解到,存在不同的观点,以及它所作出的补充是相对于一个观点的。
问:有些人担心,这可能会很快蔓延开来,我们可能无法为此做好准备。这让你担忧吗?
答:确实有点。直到不久前,我认为在我们拥有通用人工智能之前还需要20到50年的时间。而现在我认为可能是20年或更短时间。有些人认为可能只有5年,那是荒谬的。但现在我不会完全排除这种可能性,而几年前,我会说绝不会发生这种情况。
问:是的,确实如此。好的,我们已经谈了很多。我想我还有两个问题。还有一个问题我想问一下。
答:好的,你问吧。
问:有人说这些大型模型只是自动补全,这种说法对吗?
答:从某种程度上来说,这些模型确实是自动补全。我们知道这些大型语言模型只是预测下一个词。这并不简单,但确实如此。它们只是预测下一个词,所以它们只是自动补全。但是,问问自己一个问题:要准确预测下一个词,你需要了解到目前为止所说的内容。基本上,你必须理解已经说过的话来预测下一个词。所以你也是自动补全,只不过与它们一样。你可以预测下一个词,虽然可能不如ChatGPT那么准确,但为了做到这一点,你必须理解句子。
让我举一个关于翻译的例子。这是一个非常具有说服力的例子。假设我要把这句话翻译成法语:“奖杯太大了,它放不进行李箱。”当我说这句话时,你会认为“它”指的是奖杯。在法语中,奖杯有特定的性别,所以你知道该用什么代词。但如果我说:“奖杯放不进行李箱,因为它太小了。”现在你认为“它”指的是行李箱,对吧?在法语中,行李箱的性别也不同。所以为了把这句话翻译成法语,你必须知道,当它放不进去是因为太大时,是奖杯太大;而当它放不进去是因为太小时,是行李箱太小。这意味着你必须了解空间关系和容纳等概念。
为了进行机器翻译或预测那个代词,你必须理解所说的内容。仅仅把它当作一串单词是不够的。
问: 你在这个领域的工作经历比任何人都长,你描述进展就像是“我们有了这个想法,尝试了一下,然后它奏效了。”所以我们有了几十年的反向传播,我们有了Transformer这个想法,但还有数百种其他想法还没有尝试。
答:是的,我认为即使我们没有新的想法,只是让计算机运行得更快、获取更多数据,这些东西也会变得更好。我们已经看到,随着ChatGPT规模的扩大,使其更优秀的并不是全新的想法,而是更多的连接和更多的训练数据。但除此之外,还会有像变换器这样的新想法,它们将使其运作得更好。
问:我们离让计算机自己想出改进自己的方法还有多远?
答:呃,我们可能很接近了。然后它可能会变得非常快。这是一个问题,对吧?我们必须认真思考如何控制这一点。
问:是的,我们能做到吗?
答:我们不知道,我们还没有到那个地步,但我们可以尝试。
问:好吧,这似乎有点令人担忧。作为这个行业的教父,你是否对你带来的这些成果感到担忧?
答:有一点。另一方面,我认为不论发生什么,这几乎都是不可避免的。换句话说,一个人停止研究不会阻止这种情况的发生。如果我的影响只是让它提前一个月发生,那么这就是一个人所能做的极限了。有这个想法,我可能说错了,那就是短跑道和长起飞。
问:也许我们需要时间准备,或者也许如果它发生得很快,那么人们会在问题上感到紧迫,而不是像现在这样慢慢发展。你对此有什么看法?
答:我认为有时间准备是好的。所以我认为,现在就担心这些问题是非常合理的,尽管在接下来的一两年内不会发生。人们应该思考这些问题。
问:我们还没有谈到工作岗位的替代,这是我的疏忽,对不起。这个技术是否会不断吞噬工作,一个接一个?
答:我认为它将使工作不同,人们将从事更有创造性的工作,而较少从事例行工作。
问:那么如果它可以评价诗歌和制作电影,还有什么工作算什么有创造性的工作?
答:如果你回顾历史,看看自动取款机,这些现金机出现时,人们说这是银行柜员的终结。但实际上,它并没有终结银行柜员的职位。现在银行柜员处理更复杂的事情,并且需要编码人员。所以人们说,这些工具可以进行简单的编码,并且通常能够正确地执行,你只需要让它编写程序,然后检查它,这样你就能够快速工作10倍。你可以只用10%的程序员,或者你可以使用相同数量的程序员,生产10倍的东西。
我认为会有很多这样的例子,一旦这些工具开始有创造性,就会创造出更多的东西。这是自工业革命以来最大的技术进步。
问:这是另一次工业革命吗?这是什么?人们应该如何看待它?
答:我认为它在规模上与工业革命、电力、甚至是轮子的发明相当。我在人工智能方面取得了领先地位有一个原因,那是因为加拿大授予机构的政策。这些机构没有很多钱,但他们利用其中的一些资金来支持出于好奇心的基础研究。在美国,资金是必须声明你将会生产什么产品的。在这里,一些政府资金——相当多的资金,是给教授的,让他们雇用研究生和其他研究人员探索他们感兴趣的事物。如果他们在这方面表现出色,那么三年后他们会获得更多的资金。这就是支持我的资金,是基于出于好奇心的基础研究的资金。我们之前也看到过这种情况,即使几十年来没有能够展示出太多的成果。
另一个发生的事情是,有一个叫做“加拿大高等研究所”的组织,为加拿大擅长的领域的教授提供额外的资金,并为分布在不同地方的教授提供相互交流的资金,例如温哥华和多伦多,也与美国、英国和以色列等其他地区的研究人员互动。CFR在人工智能领域设立了一个项目,最初是在20世纪80年代建立的,这是将我带到加拿大的项目,那时是基于符号的人工智能。
问:哦,我知道了,你是怎么来的?
答:我很奇怪,有点不寻常,因为我做了一些大家都认为是无意义的东西,但他们认识到我擅长这种“无意义”的东西,所以如果有人要做这种东西,那一定是我。我的一封推荐信写道:“你知道我不相信这些东西,但如果你想找一个人来做这个,就找Geoffrey吧。”在那个项目结束后,我回到英国待了几年,然后回到加拿大,他们决定资助一个基于深度学习的项目。
问:我认为你对“感知”的定义也有一些不满意,对吗?
答:是的,当涉及到“感知”的时候,我很惊讶人们会自信地宣称这些东西是没有感知的。当你问他们“感知”的意思是什么时,他们会说他们不太清楚。那么如果你不知道“感知”的意思,你怎么能自信地说它们没有感知呢?所以也许它们已经有感知了,谁知道呢。我认为它们是否有感知取决于你对“感知”的定义,所以你最好在回答这个问题之前先定义一下你对“感知”的理解。我们认为它是否有感知重要吗,还是只关注它是否能有效地表现出有感知的状态?
问:这是一个非常好的问题,很重要。那你的答案是什么?
答:我没有答案。好吧,因为如果它没有感知,但出于某种原因它认为它有感知,并且它需要实现与我们利益相悖的目标,但它相信它符合自己的利益,那么这真的很重要吗?我认为一个很好的例子可以想到的是一种自主的致命武器。说它没有感觉这也对,但是当它在追逐你并射击你时,你会开始认为它有感觉。我们并不真的关心,这不再是一个重要的标准了。我们正在开发的这种智能与我们的智能非常不同,它是某种伺候无知者的工具,它和我们不一样。
问:但是你的目标是让它更像我们,你认为我们会实现这个目标吗?
答:不是,我的目标是理解我们。我认为理解我们的方式是通过构建像我们一样的东西。我说过的那位物理学家理查德·费曼曾经说过,你不能理解一件事情,除非你能够构建它。
问:所以你一直在构建。
回答:所以我一直在构建。
以往中文报告、资料,欢迎追溯
- 《区块链风险更复杂多样,需要建立标准与监管共识》2017年1月27日,胡润金融科技大会;
- 《区块链:阿凡达文明的缔造之魂,信息中心网络:潘多拉世界砥砺之基》,2018年3月2日,CCF;
- 《块游记:区块链如何与NDN等未来网络基础设施结合?》,2018年11月25日;
- 《IEN II: 知识驱动的边缘智能生态网络设想及初探》,2019年5月23日,南京未来网络大会;
- 《面向5G的命名数据网络物联网研究综述》,计算机科学, 2020年;
- 《智能生态网络:知识驱动的未来价值互联网基础设施》, 应用科学学报,2020年1月;
- 《面向边缘人工智能计算的区块链技术综述》,应用科学学报,2020年1月;
- 《IEN III: 5G 边缘算力网络》,2020年6月4日,南京未来网络大会;
- 《IEN 3.X: 区块链与命名机制在未来网络体系结构中的先进原理》,21年6月,南京未来网络大会;
- 《IEN 2021:基于价值数据NFT的开放可信数字底座》, 2021年11月25日,南京,4th HotICN;
- 《智能生态网络(IEN)2022:面向Web3.0的内容中心链网融合架构》,2022年11月25日,广州未来网络大会。