超级人工智能有什么危险 超级人工智能什么时候到来


超级人工智能有什么危险 超级人工智能什么时候到来

谷歌旗下的人工智能公司DeepMind不可谓不牛,在全球范围内都是有着非常大的影响力 。早在2016年2月,DeepMind的创始人戴密斯·哈萨比斯在英国牛津大学举办过一场讲座 。哈萨比斯当时在场当众讲到:DeepMind的目标是未来利用人工智能帮助人类解决一切问题,如科研、医疗和环境等问题 。哈萨比斯本人甚至觉得 , 人类至今积累下来的知识(经验)已经非常非常的广博和复杂,而人类再依靠自身的血肉之躯学习、组织和应用更多且深奥的知识 , 将会越来越力不从心 。一个最让人信服的案例就是,全球最好的人类棋手在与DeepMind开发出的人工智能机“阿尔法元”开展围棋对弈时,人类棋手终没法赢过“阿尔法元”哪怕一局 。于是 , 依据哈萨比斯所持的看法,人工智能在将来全面超过人类,似乎是大势所趋?!
2018年1月初,我在YouTube上正好观看了这样一个视频 。在该视频中,有人想象着DeepMind开发的人工智能在获取了人类几乎全部的数据之后,以类似自我进化的方式,在短时里变得无比地强大 , 并具备了像人类一样感知自己所处的世界,以及有着比人类高出太多的智能、更强的创造力 。到那时 , 人工智能机器简直就是比人类更高等的智慧物种 , 人工智能不仅能取代人类,从事所有的工作,还比人类干得更好 。
超级人工智能有什么危险 超级人工智能什么时候到来

另外两位在全球颇有名气的女性,一位是华裔女科学家(人工智能)李飞飞 , 另一位是杨澜 。在2017年《杨澜访谈录——开启人工智能时代》其中一期节目中 , 李飞飞与杨澜面对面地探讨了关于人工智能的话题 。
当时 , 李飞飞与杨澜有过这样的对话,在我脑海中留下的印象算是最深刻的 。
杨澜问:“所谓AI,还是IA的问题,到底是人工智能 , 还是智能增强?从你的角度,你更多地从哪个方面来思考?”
李飞飞说:“其实我在思考人文主义的人工智能,我觉得有好几层 。就站在基础科学这一层,人工智能发展到今天,它已经做了一些很基础的科学(研究) , 包括我们数学上的基础,和一些问题的基础 。但是往后走,人工智能在基础科学方面,往哪方面发展?我觉得我们就应该开始从感知学人工智能,思考到认知学人工智能,到社会意识学人工智能 。那这个时候其实和人类的,不管是应用场景上的交互,还是说本身的这个基础的这个建模的这种思路,都会更多地应用到去应用到人类的一些灵感 , 所以这是基础科学的一层 。那应用的一层的话,我觉得那更是人类成为了一环,因为人工智能发展到今天 , 它真的是可以被用了,所以人类也进入这个循环中 。就包括我们怎么和用户交互,我们怎么去更好地,去人性化这个智能 。人工智能会改变世界,谁来改变人工智能?因为改变世界的,说到底不是科技,是人 。人发明了科技,人应用科技 。”
【超级人工智能有什么危险 超级人工智能什么时候到来】
杨澜接着又问:“那你仅仅是认为,现在担心那些事情(如人工智能全面超过人类等)还太早呢,还是说这些事情就根本不会有那么严重的问题?”
李飞飞如是解答:“这里边有很多很多方面,人工智能仅仅是走出了第一步,就像当时从马车变成汽车,人类社会也经历了一场重组 。我认为就是说我们应该冷静,因为如果你看到工业对人类社会带来的改变,它有阵痛,而且在这个阵痛的过程中,我们应该有人文关怀,但是它并没有因为一次因为科技的进步带来了世界的这个坍塌 。我们应该去思考本身不会太早,因为人工智能涉及的伦理问题已经来了 。”
杨澜最后问:“最后我想问你的是 , 在人类的这个智能的各种能力当中,你觉得有没有一种或者几种能力,仅仅是人类独有的?将来无论机器怎么发展,都是不可能替代,或者说是不可能拷贝的 。”
李飞飞给出的答案是:“我其实觉得是一个字,爱 。我觉得这是人和机器最大的区别 。而且这个爱其实可以上升到一个很高的角度来讲,世界上最强大的力量是爱 , 世界上最难计算的一个东西,实际上是爱,这个对人类来说是最独特的 。不管是我 , 自己是母亲也好,妈妈也好,是这个人类的一部分也好 。”

经验总结扩展阅读