设为首页收藏本站

四月青年社区

 找回密码
 注册会员

QQ登录

只需一步,快速开始

查看: 41|回复: 1

陈冠中:人类会在不久的未来自我毁灭?

[复制链接]
发表于 2016-9-17 22:28 | 显示全部楼层 |阅读模式
2016-09-14 09:55:54
来源:共识网 作者:陈冠中


摘要
虽然理论上30年可以到奇点,但我们可能等不到,以目前的情形看科技越发展,我们毁灭的机会反而越大。科技奇点出现前,人为科技已经带来人为夜幕。

  文章原标题《科技奇点、经济奇点、制度拐点》

  谢谢主持人。刚刚在楼下碰到周濂,我们还在讨论人无远虑必有近忧,这么多事情在发生,国际上、境内、境外,大家愿意来听我演讲,我觉得特别感动。虽然我讲的是未来,但这个未来并不是很遥远,其实是跟现在强相关的。

  我稍微介绍一下自己,我是在上海出生,四岁就去了香港,在香港读完了大学,去了美国波士顿读研究所,然后回到香港。从70年代开始我创办了一本杂志,经常写有关思想观念的文章,可以说我是个思想的记者,就是报道一些新思想,是这样的角色。1981、1982年我出了一本书叫做《马克思主义与文学批评》,从马克思本人写到西方马克思主义,再写到俄罗斯形式主义,写到结构派的马克思主义,写到后结构主义,被认为是第一本从马克思到后结构主义的华文通论,那时候华文世界台湾还没有解严,不能提马克思三个字,国内的情况大家也理解。

  到80年代我的关注点有些转变,对政治和经济理论比较有兴趣。当时在北美有一些辩论,一个是关于自由主义和社群主义的,另外一个讨论就是关于经济思想的。80年代是新古典主义的边际革命,就是新古典经济学的回潮。那时我读到英国获得诺贝尔奖的经济学家詹姆斯﹒米德的一本书《给聪明急进者的经济政策指南》,这本书让我这样的社会改良者了解到怎么尊重市场规律,对价格机制要怎么看,要怎么利用价格机制,也更知道政府的重要角色。米德是把庇古的微观经济学和凯恩斯的宏观经济学结合的经济学家。当时我也参与一些环保工作,要用到福利经济学的“界外”理念,所以在80年代开始对经济学有了关注。

  二十年过去,2013年,我受香港理工大学社会创新学院邀请做驻院思想家,开始写一本书,叫做《活出时代的矛盾——好社会与社会创新》,2014年出版。2014年我在理工大也就这本书的内容做了一个大演讲,讲未来的科技、工作和教育。同年又受邀参加昆山杜克大学的一个《后人类》 研讨会,仍然是讨论人工智能与后人类状况的。所以 今天要讲的“科技奇点、经济奇点、制度拐点”也是我这几年在系统思考的问题。

  这个讲题包涵着复合的问题意识,你们就想象我是一个资深的思想记者,把这些问题认知的地图,整合成一个论述呈现给大家。

  整个讲题分成三个部分:第一是科技奇点;第二是经济奇点;第三是制度拐点。这三个部分互相关连,总共有十个观点

  所谓奇点,一般是指科技奇点,本来是数学和物理学的名词。1993年美国有一个科学家兼小说家弗诺﹒文奇在NASA做了一个演讲并且撰文,他定义科技奇点是指有超越人类智能的超智慧体出现。也就是说人工智能的智慧体终于超过了人脑和人的智能。这个点之后发生的事情并不是我们现在线性思维能推想的,是另外的状态,就是所谓科技奇点。

  未来学家库兹韦尔2005年说科技奇点将会在2045年发生,离现在不到30年。近年他又判断说,2029年人工智能就可以通过著名的图灵测试超过人脑了。图灵自己认为,人工智能骗过我们,让我们误认为他是真人,即通过了他设定的这一测试的时间点将在2000年发生,但是到2000年人工普遍智能并没有超过人的智能。库兹韦尔预测说可能是2045年,也可能2029年,他们讲的重点是科技奇点发生的时间点,可能更近也可能远一点。但是有一天人工智能会超过人的智能将迟早发生。

  图灵有一个伙伴叫伍德,他说超智能机器是最后一个需要人类的发明,以后超智能自己能发明了,就不需要人类了,他当时这样说过。

  现在的人工智能只能做到特殊性的智能,比如说它在每一个单独范畴都能赢过人脑,下棋、问答游戏,都已经赢了人类。但没有做到所谓AGI人工普遍智能,这是大家都同意的。

  但是信息技术进步的速度将会非常快,就像摩尔定律所描述的一样,当价格不变时,集成电路上可容纳的元器件数目,大约每隔18个月便会增加一倍,性能也将提升一倍。英特尔实验室主管梅贝瑞说过,这样的进步在过去几十年都是准确的。如果大家相信摩尔定律,所谓人工“普遍”智能,就是人工智能在几乎全方位普遍范围都胜过人脑,这个情况不是说不可能发生,甚至不一定非常遥远。有论者说到了2030年,手提电脑同时拥有所有人脑和人工智能机器人功能的,大概只需要1000美元,这是已经超过人脑智能的电脑。

  很多人在想奇点之后,机器人会怎么对待人类,就是硅体的机械的超智慧体,也或许是机器结合了某些碳体生物体的赛伯克的第二种智慧物种,在它们主宰人类之后将会怎么对待人类。

  这个情况不一定是我们所想象的某一种恐怖,有很多可能性。有些科学家尤其人工智能科学家和“跨人本主义者”会强调,智慧体可以是对人类友善的,可以带来很多想象不到的好处。不过现在大部分人也都倾向同意,所谓阿西莫夫的机器人三定律,已经证明不可能完全阻挡超智慧体不伤害人类。为什么呢?因为它们是完全理性的,它们的想象跟人不一样,它觉得是帮你的事情也可能把大家都毁掉。比如说它看到人的智能太低了,就像我们看到蟑螂、蚊子一样。所以它们觉得你们是蟑螂、蚊子,可以把你消灭。也可能它们认为人就是喜欢享乐的,那就全部把你们圈养起来,好象养宠物一样,用纳米芯片附体让你们住在一个虚拟空间里面永远享乐。史蒂文霍普金斯在2004年接受BBC访问时就悲观的说过,全面人工智能的发展将意味着人类的终结。这意思是在说人工智能的超智慧体带来的奇点不是我们人类想要的,是坏的奇点 。

  我的第一个观点,就是坏的奇点是可能出现的。这可能是人类技术的失误、也可能是我们的思想、制度失误的复合性原因。我们今天的制度是怎样的,可能会影响我们输入给人工智能体的命令,然后到它超越人类的时候,它会对我们友善或者不友善。

  有人提出可能不用等到科技奇点出现,人就已经自我毁灭了。考古人类学家、历史社会学家伊恩﹒莫里斯 用了阿西莫夫小说“Nightfall” 一词 (”Nightfall” 小说名称中国翻译成《日暮》,这里我译作“夜幕”。) 他说不见得我们等得到奇点,奇点还可能有好有坏,夜幕只能是坏的(对人类而言)。他引用当年天文学家卡尔萨根的一个诘问,萨根问:全宇宙这么多高等文明,为什么到今天都没有来联络我们,我们也找不到他们?根据天文学说的德雷克公式,宇宙应该有有两千亿万个银河系,所以计算出大概有一兆个生物的文明,竟然没有文明联络我们,我们也没有联络到他们。这是为什么?这是萨根问题。其中一个答案也是比较多人支持,就是所有高等文明到一定高等程度的时候,它们的科技就把它们毁灭了,所以根本没有存在的高等文明,越是高等的越是会马上全体毁灭,所以到不了和我们联络的阶段。

  我的第二个观点是,虽然理论上30年可以到奇点,但我们可能等不到,以目前的情形看科技越发展,我们毁灭的机会反而越大。科技奇点出现前,人为科技已经带来人为夜幕。

  我简单说说有什么会引致人类文明全面毁灭,非人为的我们在此不谈,比如别的星球撞上了地球等等。人为的一级的灾难都跟科技有关。第一,现在就可以发生的,就是核子爆炸。核爆可以是很多种情况,一是恐怖组织引爆核弹,有一个专家格兰姆﹒亚历松说十年之内发生恐怖核爆的机会是51%,而且最近有美国专家也说恐怖组织在大城市连续引爆核子炸弹的机率非常高;二是核子武器的扩散,越多国家拥核,风险越大;三是现在中、俄、美都在发展精确的核武,越精确的核武使用的机率会越高。当然还有一种情况就是现有核电厂,发生大爆炸。核爆就可以把人类一下子毁灭或导至核尘严冬。如果这样我们就不用等到奇点了。第二就是其它科学发展,有几种科技可以让全部人都毁灭。一是所谓纳米科技的复制能力(ecophagy),纳米分子不断自己复制,可以很快把地球包裹起来;也有人说,量子加速器会使地球全部毁灭;第三种就是史上最有杀伤力的病毒都在实验室保留,如果放出来,可能也会死很多人,差不多能毁灭世界。

  我们今天谈的主要是在科技奇点之后,发生的人工智能超智慧体带来的坏的“夜幕”奇点。就是超智慧体不友善,它认为人太低级,所以把人消灭,这不是不可能。但这是科技奇点之后,人为制造出来的东西最后带来人本文明和“人类世”结束的“夜幕”。

  我的第三个观点,就是到达科技奇点或人为“夜幕”出现大的灾难之前,今天的人类已进入一段颇长的“过渡期”。 换句话说,从现在开始计时的话还是有时间的,这是一个过渡期。

  人文社科学界到今天还是会低估科技的冲击,这个在以前问题没这么大,但是在今后会很严重,这是提速时代,如果科技奇点是30年后,我们可以想象今天到30年后的过渡期的变化,科技冲击会多大,远远超过我们前30年的想象,这是非线性的飞跃。

 楼主| 发表于 2016-9-17 22:29 | 显示全部楼层
审核审核,就等着吧
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册会员

本版积分规则