人工智能会不会走上“邪路”?上海学者激辩,有人淡定有人担忧

2017-09-11 18:17:50 来源:上观网 热度:
人工智能早已不是新鲜词。但是,未来会不会像霍金说的那样,智能机器人可能会成为人类历史上最大的灾难,或是人类文明的终结者吗?
 

 
由上海市社联《探索与争鸣》杂志社和华东政法大学政治学研究院共同主办的“人工智能与未来社会:趋势、风险与挑战”学术研讨会上,各领域学者展开了一场跨学科的精彩交流。
 
机器不靠谱?不,是人性
 
人工智能的深度学习,推动力究竟在于算法,还是数据?
 
上海交通大学电子信息学院的熊红凯教授认为,数据才是最后关键的因素。现在一些大公司开源算法架构,其实只是为了占领人工智能的市场生态,这是商业策略。
 
人工智能发展中的不确定性和不可解释性,是最大的威胁。
 
一个最后的结果,它的不确定性和不可操作性来源于数据,即使同一个数据不同的人操作也不一样,这就带来很大的问题:公共安全性。这也是美国大数据医疗一直进展缓慢的原因。
 
人工智能是把双刃剑。如果所有的机器都联网,这个力量会决策我们每个人的命运。从伦理讲,人类不知道将来会有怎样的方式来决定个人命运,因为我们原来所形成的知识,是个人可认知、可掌握的。
 
若一切技术都是以超越人自身为推动力,“人工智能是洪水猛兽”这个说法显然是成立的。因为对数据的操控性和选择性,所有的人类能力都必须在机器的载体上发展,这种能力的控制性,完全不可靠,而且它会不断演化和发展。这会给人类世界带来极大的不确定性。人们还应真实认识人工智能背后的基理所在,如果这个方式不解决,一旦垄断在一些大公司手里,实际上对每个人的命运来说可能都不可控。真实原因不在于机器,而在于人性其实是不可靠的。
   
人和机器会在未来和谐相处
 
从“开放”这个角度出发,华东政法大学政治学研究院院长高奇琦教授的看法,和熊红凯教授恰恰相反。
 
为什么中国人工智能爆发最重要的场景,是基于人脸识别的安防,而西方是基于语音识别的智能音箱?因为在中国人看来,“君子坦荡荡,小人长戚戚”,相比于个人隐私,安全稳定更重要。为了提高社会治理的状况,让渡一部分个人权利和隐私,在中国人看来并非不能接受。在研究智能医疗的专家眼中,目前中国是研究智能医疗最好的国家。只要政府和病人之间有很好的合作,那么医疗数据就能开放给医疗大公司和研究人员,而智能医疗的发展反过来又能解决医疗资源不足的问题,造福更多的人,从而形成国家、企业与个人的良好互动。
 
中国人的传统,会将两种完全不同的力量放在一起综合考虑,这就是“多元统一”。未来,将会出现人工智能与人类智能长期共存的情形。很多中国的专家学者、投资人认为,人和机器在未来会和谐相处。《周易》中的阴阳观、《道德经》中的辩证思想,深刻影响着中国人的思维,我们认为物、人都是世界的一部分,人类可以与世间万物和谐共存。在西方基督教文化看来,科技一直在挑战神的领域,而中国没有这方面束缚,在技术发展上,可能会少一些伦理负担。
 
不是自然科学,更不是社会科学
 
上海社会科学院哲学所副所长成素梅研究员,带来了女性专家的独特视角。
 
她谈到,人工智能是计算机分支学科研究出来的,但是从学科性质上来讲,人工智能不是自然科学,更不是一门社会科学,尽管人工智能研究者必须关注其成果对社会所产生的影响,但这并不是人工智能研究的主要内容。人工智能是科学与技术相互交叉的一个领域,一开始就具有跨学科性。
 
目前,人工智能不仅在日常生活中大显神手,在工业领域和商业领域内捷报频传,《科学》杂志刊文表明,机器人或自动程序已经能够直接参与人类的认知过程。比如,宾夕法尼亚大学积极心理学中心的心理学家可以运用算法,根据推特、脸谱等社交媒体上的话语,来分析大众的情绪、预测人性、收入和意识形态,从而有可能在语言分析及其与心理学联系方面带来一场革命;普林斯顿大学的计算生物学家可以运用人工智能工具来梳理自闭症根源的基因组,等等。这些机器人或自动程度被尊称为“网络科学家”。
 
人工智能的威胁论虽然表达了人类的忧患意识,但确实为时过早。退一步讲,即使未来有这么一天到来,人类也已经在这个进程中,充分享用了人工智能带来的恩惠,并深刻反思了有关人性、社会、文明等问题。政府在推动技性科学的同时,更应该加强哲学社会科学的研究,切实把哲学社会科学的思考,特别是伦理考量,贯穿到技性科学发展的始终,让人文关怀成为人工智能研究者的自觉意识,使科学家们在研发人工智能的过程中,做出有利于发展人类文明的抉择。
 
“落后就要挨打”=“先进可以打人”咯
 
人工智能在军事领域的应用怎样呢?
 
在这个问题上,各大国都处在被“劫持”的状态。人们常说“落后就要挨打”,其暗含的逻辑就是“先进可以打人”,先进的国家可以欺压落后的国家,即使各国不希望制造杀人武器,但又不得不制造杀人武器,因为谁也不想落后,谁也不愿挨打。
 
上海交通大学科学史与科学文化研究院院长江晓原教授指出,实际上人工智能军事化的危害性,并不在于其导致伤亡人数的多少,战争也不会因为导致伤亡较少而变得就可取。在美国纪录片《零日》中,美国和以色列为了破坏伊朗的核计划,联合研发了一种超级病毒。事实上,这种超级病毒就是一种幽灵般的人工智能,它感染了伊朗的网络之后,会自动寻找和识别特定的目标——离心机的控制器。由于病毒设计巧妙,它在当时几乎无法被侦测出来。然而,美国人偷笑的时间并没多久,这种超级病毒还真被发现了。不仅被发现了,而且被破解了。这就意味着伊朗及其盟友,也获得了这种超级病毒。人工智能的军事化应用,当然比原子弹能造成的伤亡要小,但其破坏性一样不容小觑。
 
在人工智能的发展上,资本的推动是很明显的。但是资本的增值是盲目的,而且不计后果的,关于这一点,重温马克思的教导很有意义。江晓原教授认为,现在对资本的恐惧要比对权力的恐惧大得多,资本比权力更可怕,是因为资本其实非常盲目。
 
他认为,现在不能盲目赞美人工智能,歌颂人工智能的美好,应该在媒体上多进行关于人工智能伦理方面的探讨,至少能引起各界的注意。在某些领域中,可以考虑保留低级的人工智能,保留人工智能的某些初级应用。要认识到,这个东西就像魔鬼一样。我们尽量设法对某些指标性的东西加以明确,如各国约定在全球范围普遍内不允许做某些事,这样才有可能延长人类文明。
 
人将不再是工作的机器,挺好
 
上海师范大学知识与价值科学研究所所长何云峰教授担心的是,人工智能大量使用,会不会带来进化方面的负面后果?例如,每个人都使用手机,大家变成低头一族了,会不会导致若干万年以后我们的脚变成越来越短,手越来越长?当然还有其他可能的进化性负面后果,都值得我们去关注,这种后果可能比摆脱束缚我们的那种东西,还要可怕。
 
除此之外,他以为人类应该要乐观地面对人工智能。人类进化到现在,通过人工智能,会有更多的信息获取渠道和处理渠道,这样人类能使自己更加强大。随着人工智能的发展,人类劳动的简化程度会大大提高,人会有更多的时间进行学习,变成一种学习动物,而不再是工作的机器。学习的观念会完全改变,人会有更多的发展机会,会更多地减轻、摆脱繁重的东西,可能完全不是今天的状态。
 
历史学家不怕失业
 
80高龄的华东师范大学历史系王家范教授,将自己的微信名取为“乡下人”,他丝毫不担心历史学家会在未来失业。“世界上有一种职业,是任何再先进的机器人也无法替代的,那就是历史学家。”到今天为止,所谓用“大数据史学”做出来的成果,行业中人心知肚明,它并没有如想象的那样奇妙和高明。再大型的史料数据库,也只是史学家的辅助工具,是史学的助手,不可能成为史学的主人。
 
纯粹靠摆史料,靠史料“料理”历史的史学工匠,“机器人”一定能取代,效率胜过千百倍。如果把史学看做一门人类理解自己的“思维工艺”,从人类已有的千万年的无穷经历里,时时咀嚼反刍,提炼出人类智慧,用以改善人类现在和未来的处境,这一类的史学工艺创造,“人工智能”就捉襟见肘,窘态毕露。
 
他认为,在欢呼科技进步的同时,有必要对科技忽视人文的严重后果进行认真检讨,人文主义在科学家队伍里应该占有主导地位。价值理性是第一位的,工具理性是第二位的。科学家的自身修养是如此,科学创造也应该如此。老子说“知人者智,自知者明。胜人有力,自胜者强”。科学家必须有战胜自我欲望无边的“自胜者强”的意识,及早消弭企图操控人类的各类野心,人工智能的开发才不会走邪路。
 
按照人类所希望的“善智”方向发展
 
上海社会科学院互联网研究中心执行主任惠志斌,探究了人工智能应用场景中的法律问题。他认为,人工智能能够联系大量的人、物,在联网的基础上产生大量的数据,再通过一系列智能化的算法。这个算法,至少目前来看还是由人来设计、去验证、去实施的算法。在各种各样的智能网络应用场景里,在鼓励它发展的同时,如何去规避危险,如何按照人类所希望见到的“善智”方向发展?这是我们需要考虑的问题。
 
还要考虑如何通过一些公共政策、如何通过法律,把那些可能带来危害的风险点找到,进行规避。他认为,人工智能碰到的法律和经济问题,要在基本安全的框架内,探讨人类和机器共同协作的方式,让人工智能产品在公众的监督之下透明、开放,而不是随意设置。

责任编辑:吴昊