与AI共生的世界 - 生命3.0

每个人都关心自己的命运,也有很多人关心国家的命运,但除此之外,你还应该关心人类的命运。 人类命运是个大尺度的问题,虽然对你我的生活没有直接影响,但我们总有一点儿好奇心,想知道未来究竟会怎样。

最初在得到中看到这本书,试听了罗振宇的音频,觉得很有意思,就阅读了这本书,见解非常独到,给我开了一个比较大的脑洞,对生命有了不同的思考,给了我一个全新的视觉看待这宇宙,这世界。

缘起

《生命3.0》的作者麻省理工学院物理系终身教授、未来生命研究所创始人迈克斯·泰格马克。这本书受到了史蒂芬·霍金、埃隆·马斯克、尤瓦尔·赫拉利等社会各界专家学者的力荐,万维钢、余晨专文作序推荐。

2015年有一个大新闻,特斯拉的创始人马斯科捐赠了1千万美元给一家创立了仅仅一年的组织——未来生命研究所。这家组织研究的是人工智能安全性,他们的目标是要保证人工智能的发展对人类的未来是有益的。他们想帮助人工智能的研究者,不只看到高科技带来的锦绣前程,还要随时关注可能给人类带来的危险。

在成立未来生命研究所之前,迈克斯·泰格马克已经在对平行宇宙的研究上获得了很多成就,曾经写过一本非常受欢迎的科普畅销书《穿越平行宇宙》。泰格马克和诺贝尔物理学奖得主理查德费曼师出同门,他们的老师是参与过曼哈顿计划和原子弹研究的著名物理学家约翰·惠勒,咱们现在常说的黑洞虫洞,最早就是由惠勒提出的。

而《生命3.0》,回答了以下这些问题。

在人工智能崛起的当下,你希望看到一个什么样的未来?当超越人类智慧的人工智能出现时,人类将何去何从?你是否希望我们创造出能自我设计的生命3.0,并把它散播到宇宙各处?人工智能时代,生而为人的意义究竟是什么?

-->

核心内容

简单说一下这本书关于生命的理解框架。

生命1.0

从单细胞生物到哺乳动物,不管多简单多复杂,它们不能重新设计自己的软件和硬件,两者都是由DNA决定的。环境变了,它们本身是不会主动适应的。只能靠自然选择,寄希望于下一代,软件、硬件才能发生一些变化,这就是生命1.0的状态。生命1.0出现在大约40亿年前,这个地球上现存的绝大多数动植物,都处在生命1.0的阶段。

生命2.0

系统还是不能重新设计自己的硬件,但是软件在个体这一代就能升级和迭代,可以通过学习获得很多复杂的新技能(知识、智慧等就属于软件部分)。生命2.0出现在大约10万年之前,人类就是生命2.0的代表。但是,我们的硬件也就是身体本身,只能由DNA决定,依然要靠一代代进化,才能发生缓慢的改变。也就是说,生命2.0是通过软件升级来快速适应环境变化的。

生命3.0

按照上面的框架,生命3.0也就很容易理解了,系统能不断升级自己的软件和硬件,不用等待许多代的缓慢进化。人工智能就是生命3.0的代表,他们不仅能在智能上快速迭代,在身体上也能随时重新设计更换。

什么是生命

这是我的第一个重新调整的思考,什么是生命?

以前的认知基本都是基于《物种起源》和基本的生物学知识,生物是大自然不断演化、进化的物种,碳是构成有机物的基本元素,而有机物是生命体的基本组成。而这本书,彻底颠覆了我以前的认知,或许未来的人工智慧也是生命的一种形态。

人工智能怎么会是生命呢?它没有血肉之躯啊。《生命3.0》这本书给生命下的定义是:可以自我复制的信息处理系统。 仔细想想,好像也的确是那么回事,能处理信息,能根据外来信息作出反馈和行动,还能自我复制,为什么就不能是生命呢?所以,生命没有什么固定的形态,只要能对环境做反应,能自我复制,它就具备了生命的特质

也就是说,这对于我们传统的思维方式是一种巨大的冲击,那就是,生命可能并不需要寄存在血肉之躯里(碳基生命)。当智能有机会从肉身的束缚当中解脱出来的时候,生命本身就有机会成为自己命运的主人,最终它就会完全脱离进化的束缚,将生命寄托于机器之中,不必根据大自然的法则执行"生老病死"的程序,也就是 硅基生命

人和人工智能之间的关系

作为人类本身,我们很容易从自身出发去思考问题。如果以后真的有人工智能诞生,那么它也只能作为人类的一项创造发明而存在,就算按照广义的生命理解,它顶多算是人类的孩子。如果这是一个好孩子,它便可以为我所用,如果是个坏孩子,我们就干脆不要生它,或者生出来将之毁灭杀死。

但是,按照《生命3.0》的理解框架,人工智能虽然顶着"人工"这个姓,是人创造出来的,但它并不是人类的孩子。它只是地球生命系统内在逻辑展开的一个阶段。无论我们愿意不愿意,喜欢不喜欢,欢迎不欢迎,它终将都会演化出来。

现在人类的研究发明,都还只是局限于狭义人工智慧,比如AlphaGo,自动驾驶汽车等等,这些都只是在特定领域可以自我学习,自我完善,AlphaGo只能下围棋,却不能去开汽车,做饭。

而当人类发明出通用人工智能的时候,就是一个触发生命3.0产生的临界点。一旦迈过了这个关键时刻,智能进化的速度就会迅速成指数级的增长。而等到超级人工智能出现的时候,就意味着生命3.0时代的来临,并非人类意志所能控制的。

人工智能何时到来

按照现目前技术发展的速度,应该不会太长。2015年,在未来生命研究所的调查中,大概有一半的科学家认为,这个临界点会在2055年到来;而仅仅过去了两年,也就是2017年,未来生命研究所又做了一次调查,这一次,绝大多数的科学家认为,这个临界点会提前到2047年。

但是,可以肯定的是,不管生命3.0哪年会出现,都不会是缓缓走来,而是突然出现,就是有一天,你就发现它突然降临了,没有循序渐进的过程。

按照生命3.0的定义,人工智能开始可以自己设计硬件和软件,可以自我升级、迭代、演化,只要它在逻辑上踏上了第一步的台阶,后面的事情,就不是人类可以控制和想象的,那是以算法的速度在演化。也许一夜之间,甚至几个小时,就能完成人类一辈子也完不成的创造。

所以,事实上,它什么时候实现并不重要,重要的是,它一旦实现,它就是人类的最后一个发明。后面的创造历史的使命就全交给人工智能了。

人工智能的意志

怎么做才保证人工智能的发展对人类的未来是有益的?

最容易想到的,就是人工智能继承人类的意志,跟人类拥有相同的目标。

然而,要解决目标一致性这个问题,非常难,需要把它划分成三个子问题,各个击破。这三个子问题分别是:让人工智能学习人类的目标;让人工智能接受人类的目标;让人工智能保持人类的目标。

但是,或许人类自己都说不清楚人类的终极目标是什么。就算目标明确,要解决上面三个问题,也是无比艰难。

或许人能目前能想到的比较普遍的是以下这些目标: 人类应该更多感受到幸福,要有更多的自主性,要把人类的文化遗产传承下去等等。所以,要解决目标一致性的问题,首先得保证人类能够生存下来,赢得时间,然后才有机会不断思考、选择和修正自己的终极目标。

科学家们打算如何解决这些问题呢?

首先,要让人工智能"学习"人类的目标,不是让它搞明白人们在做什么,而是要理解人们为什么要这么做。

接下来,让人工智能"保持"它学习到的目标非常重要,否则人类之前的所有努力就前功尽弃了。

怎么解决人工智能和人类目标的一致性问题,科学家们目前只是做到了把这个大问题分解成三个子问题,积极开展研究,但是,还没有取得突破性的进展。不过,我们得这么想,认识到需要解决什么问题,这已经是迈出一大步了,接下来去积极研究就是了。这总比我们对于危险完全没有预料到,什么准备都没有,要主动多了。

人工智能的尺度

如果诞生了人工智能,它的行事作风会是什么样呢,会不会跟我们人类一样?

事实上,如果生命3.0时代到来,或许一切都不会是人类认识的那种样子。

举个例子,如果那个时候地球的生存空间有限,容不下那么多人类、人工智能和各种生物,需要扩大生存空间,作为生命2.0代表的人类想法或许是移民一个适宜生命生存的外星。而人工智能可能回想,我们把整个太阳系作为核心,在外层建造一个巨大的球体将太阳包裹住,以银河中心作为这个巨大球体的新"太阳",而目前的太阳作为"地核"。那要怎么制造这个巨大的球体? 那就把木星拆了吧!

这个尺度或许会超越人类目前已有的认知水平,现在看起来都觉得不可思议,但是,我们又怎么知道呢?

那生命1.0形态的生物举例,那些单细胞生物生存在一块池塘中,它的世界就是整个池塘,怎么会知道在池塘之外的地球,怎么会了解我们作为人类的声明2.0形态的行为呢? 而作为生命2.0形态的人类,视野从天圆地方到地心说再到日心说,最后将整个视野放宽到整个宇宙,而我们又怎么知道,生命3.0的视野将会是怎么样呢?

这里,又引发我另一个思考。我们人类本身会不会就生活一种超越我们认知的存在所创造出来的一种"计算机程序"中,甚至连我们视野所及的宇宙,或许都是跑在一个"巨型量子计算机"的"模拟程序"中,我们现在发现的许多自然常量,如一些基本力的大小,其数值看起来就像是经过精心计算的,让生命存在成为可能。即使最细微的变化也可能意味着原子不再稳定,或恒星无法形成。我们又怎么知道呢?

言归正传,事实上,人类从智人起步,用卓越的智能打败了所有生命1.0和生命2.0的物种,现在,人类认识到,生命带来的丰富独特的体验更加重要,这些体验才能让我们的人生饱含意义。所以,人类之所以要保存生命的延续,并不是因为我们在宇宙中的物种优越感。对于人类来说,我们要守护的是生而为人的意义。

人工智能的未来

伴随着生命3.0时代的来临,《生命3.0》这本书里总结了超级人工智能可能带来的12种未来,分为4种结果。

第一种结果是人类灭绝。

第二种结果是人类丧失了统治地位。

第三种结果是人类限制超级智能的发展。

第四种结果是人类统治超级智能。

但是,如果人类停止研发人工智能,那么,将会在10亿年之后被大自然抹去,这是一种自然选择的必然结果。

人类观点

目前人类针对人工智能的观点,大致可以分为3类。

卢德主义者

他们认为,超级智能的出现对于人类来说,一定是坏事,他们坚决反对通用人工智能的研究和开发。

数字乌托邦主义者

像是谷歌的创始人拉里佩奇和未来学家库兹韦尔,就属于这个派别。他们认为,数字生命是自然进化的必然结果,人类不应该阻止或者是奴役它们,让它们自然发展,结果一定是好的。不能因为人类生命是碳基的,数字生命是硅基的,就对超级智能进行“物种歧视”。

人工智能有益运动支持者

像是马斯克、比尔盖茨、霍金和《生命3.0》的作者泰格马克,就属于这个派别。他们认为,超级智能带给人类的结果是好还是坏,要取决于人类的自主选择。人类要主动对未来进行筹划和研究,保证科技能够带给生命积极的力量。

总结

面对智能爆炸所带来的生命3.0时代,不能做一个毫无准备的乐观主义者,而是要成为一个警觉的乐观主义者,面对强大的人工智能,既不过分自大,又不过分自卑。也就是说,人类面对未来,必须要同时抱有恐惧、敬畏和好奇之心。恐惧,可以无限激发我们的想象力;敬畏,可以让我们更加热爱当下并不完美的生活;而好奇呢,可以让我们在面对未来的征途上,无惧艰险。

参考资料

MIT Licensed | Copyright © 2018-present 滇ICP备16006294号

Design by Quanzaiyu | Power by VuePress | Hosted by Coding Pages