写在前面
2023年的3月是不同寻常的一个月。GPT-4、Microsoft 365 Copilot、Midjourney V5、Google PaLM API、文心一言,一颗颗 AI 大模型领域的重磅炸弹,扎堆在3月引爆。
(资料图片)
人工智能,不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是以太网中跃动的字节和CPU中孱弱的灵魂,而是实实在在的宿命。我们已身处大时代的革命之中, 在越来越多的领域,人工智能正在快速超越人类。我们怎么才能破局?未来已来,我们还能做什么?
在湛庐大师行第34期的活动中,MIT物理系终身教授、未来生命研究所创始人、《生命3.0》作者迈克斯·泰格马克教授曾经分别于北京、上海两地,在猎豹、百度等公司,清华、上海交大等知名高校与大家一同探讨“生命3.0:与AI相伴的人类未来”。
泰格马克教授一直在强调,人类不会沦为“无用阶层”,并且,关于人类未来,关于人工智能,我们需要抉择,需要提前做准备,需要从一个非常长远的角度出发思考,除此之外,教授还分享了他对于AI武器、新技术的看法。很多预言,在现今都已实现。今天,湛庐君把教授8天活动的演讲内容整理成文字,希望能让你积极地面向未来,去拥有具有生活价值的知识和能力。
《生命3.0》书封 作者:
1.
生命3.0,会比你想象的更早到来
我觉得,从人工智能到通用人工智能,再到超级智能和生命3.0,这条路并没有我们想象中的遥远。
从定义上看,智能即完成复杂目标的能力。智能分为两种:生物智能和人工智能。而很多认为超级智能不会到来的人犯下了这种错误:他们觉得,我们现在连自己的大脑怎么运作的都没有搞清楚,又如何打造出比我们更强大的智能?但是同样的道理也可以说,我们好像永远都打造不出直升飞机,因为我们连一个机器鸟都造不出来(机器鸟是飞机发明出来一百年之后才出现的)。
这个例子说明,飞行器的制造比我们想象的简单,比生物学更加简单。同样的道理,通用人工智能打造出来的过程也会比我们想象的更加简单。毕竟,大脑的诞生受到进化的限制,而这并不能限制到工程师。
泰格马克教授
几年前,机器人还不能走路,现在它可以后空翻;以前我们根本就没有自动驾驶的车,现在我们却有了无人火箭,它可以自己下降,自己着陆;以前计算机也不能做面部识别,现在AI不仅能够做面部识别,还能生成一些虚假的面部……在回顾这些了不起的成就的同时,我们也应当加紧步伐,去思考如何应对与“生命3.0”相伴的未来。
2.
人类不会沦为“无用阶层”
对于“人工智能取代人类”的担忧,从来都不是没有来由的。我现在用人类能力地形图来说明这个问题。
人类能力地形图
图中的海拔高度代表了人工智能将还未完全取代人类的工作,海平面则表示了当下人工智能所能达到的水平。海平面会随着人工智能的进步上升,所以在这张地形图上,会发现类似“全球变暖”的变化。我们显然要避免那些近海区的工作,这些工作迟早会被人工智能取代。
然而,水平面最终会上升到什么程度?水平面最终会不会淹没一切?最终能不能完全胜任所有人类工作?这里需要大家牢记通用人工智能的定义:拥有完成包括学习在内几乎所有目标和认知任务的能力的人工智能。这意味着对于三个疑问的回答都是YES。
当智能爆炸发生,超级智能和“生命3.0”随之到来时,人类就会沦为无用阶层了吗?我的回答是,这太尴尬了。我们每个人选择了自己的工作,我们之所以为人,是因为我们有着一种雄心壮志。所以,我们应该先思考一下有了高科技,我们希望有个什么样的社会,不仅仅要有物质的富足,人生还需要有别的追求、需要有别的意义。
而且,我们应当保持这种雄心壮志。我们应该不断的思考和想象未来,并向着这个方向不断发展。
3.
“试错法”将成为历史
如果我们能在与日益发展的科技的比赛中获胜,人类的科技智慧同样会提高。我们未来如何操控与AI相关的机器,让它造福人类的发展?
为了实现这样一个目的,我和其他的科学家一起成立了未来生命研究所,我们希望未来仍旧有生命存在,能让我们的生活变得越来越好。而人类又该如何赢得这场不断上升的科技和我们不断掌控它们能力之间的竞赛呢?
我认为,人类必须改变相关的策略。
过去,我们的策略是从一些错误中学习相关的经验教训。比如我们发明了火,除了几次火灾之内的事故之后,我们发明了灭火器。我们又发明了汽车,然后出了几次车祸事故之后,我们又发明了气囊或者是安全带这样一些防御措施。
从火和车的例子可以说明,我们可以从错误中学习经验,然后让科技朝着造福于人类社会的方向发展。
所以我们的策略还是说从错误当中学习经验。但是这样的策略不能适用于长久,尤其对于未来发展来说也是不适用的。这是因为随着人类技术的不断发展,科技变得逐渐强大,最终会在某一些领域取得相当强大的发展,比如核能,比如合成生物学等。
所以更好的方法是,对于强大的科技我们可以事先做好准备,来预测它可能会带来的一些结果。核能方面、生物学方面或者是通用人工智能领域,都可以实现这样一种策略——我们需要提前做好准备,想到预先的一些后果,然后避免。这并不是在制造恐慌。
比如,在美国航天局部署阿波罗11号任务之前,在中国发射自己载人卫星之前,他们都会仔细地设想所有可能出错的状况,毕竟是要把人类放进易燃易爆的太空舱里,再将他们发射上一个无人能助的境遇。这是在制造恐慌吗?不,那正是在做安全工程,以确保任务顺利进行,这正是处理通用人工智能或其他强有力的科技时应该采取的策略。
4.
严格限制AI武器,才能防止将来会产生的军备竞赛
核武器与生化武器有非常清晰的界限。但AI武器怎么界定?飞机的自动瞄准、无人机的自动驾驶、自动攻击算不算一种AI武器?
我认为,从定义上说,AI武器意味着,它可以自主决定杀谁,而不是由人来决定。因而,我将AI武器定义为致命性自主武器系统。
今天,自动化杀人武器是AI领域的一个热门话题,其中的界限到底是在哪里呢?在美国,这个话题已经有了激烈的讨论,包括在与猎豹移动CEO傅盛的对谈中,他也问过我,我们现在开始谈论禁止自动化杀人武器,以及签约禁止研发自动性杀人武器是不是还太早了?
但其实,这一点都不早,我们必须提前防止AI开发这种自动化杀人武器,才能防止将来会产生的军备竞赛。就像生物化学家在致命性的生化武器研发之前,就已经达成一致,不去研发这种有害的生化武器,因此,我们也在道德上负有这种责任。
5.
合作,将是科技造福人类的关键
如果世界上有一个国家首先先开发出通用人工智能,那它就有占有优势了。我们知道博弈理论,博弈理论实际就是研究在竞争环境下怎么协作,当竞争者能意识到,协作和合作能够带来更好的结果时,他们就会开始协作和合作。
他们事先达成一个协议,分享它带来的好处。假设通用人工智能可以把全球的GDP翻100倍,那么中国就会比今天富100倍,美国会比今天富100倍,这是可以保证的未来,而不是说50%的机会只能够富裕200倍。如何实现国际间更好的合作,将是科技造福人类的关键。
推荐阅读
书名:《生命3.0》作者:(美)迈克斯·泰格马克,出版社:湛庐文化/浙江教育出版社