清华张钹院士、人大文继荣院长领衔,论道AI安全与伦理


我们能达到电影里的智能吗?未来十年最可能实现的AI场景是什么?如何平衡隐私保护与AI产业发展间的关系?如何看待AI自主性?是否应该给AI分级?

这里有清华大学AI研究院院长张钹院士、中国人民大学高瓴AI学院院长文继荣和搜狐网产品技术总监杨田的思辨。

整理、撰文 |太浪

技术是中立的吗?

当技术不可控时,达到能够无中生有、以假乱真的水平时,它还是好的吗、还是中立的吗?

如果你还记得今年央视315晚会曝光的「智能呼叫机器人」、能轻易将一个人的图片复制粘贴到另一个人身体上的DeepFake换脸视频、能让蒙娜丽莎「张口说话」的三星AI,或许,你会陷入对上述问题的思考。

AI技术在不断发展,也越来越多融入人们的日常生活。但人们对AI的未来尚未定论,面临着诸多问题。

为更好地探索人工智能领域的未来发展和解决人工智能和人类未来共存的所出现的矛盾问题,清华大学AI研究院张钹院士和清华大学唐杰教授联合发起「AI Time」science debate,希望更多人参与上述问题的探讨。

第一场辩论已于昨日下午举行,张钹院士、中国人民大学高瓴人工智能学院院长文继荣和搜狐网产品技术总监杨田等人对AI安全伦理和社会问题进行深入探讨。

笔者列席旁观了这场辩论,被感染,于是在会后参与到更小范围的话题讨论中。为了让这场辩论能够影响到更多人,笔者对辩论会上探讨的话题、交锋的观点进行了编辑、整理,于此处分享给各位读者。

Topic 1:

AI什么时候会达到电影《Her》里AI语音助手「萨曼莎」的智能

文继荣教授认为,现在所谓人工智能的产品不太有情感,因为它的优化目标不是伦理的东西,而是完成既定目标。

我们可能能够在某些局部做到(智能),比如利用现在的大数据和深度学习的技术,将你每天发生的事情记录下来,建一个个性化的模型,可以实现基本的聊天功能,甚至它可能变得比你更懂自己。但是从感情上或者自我意识上做到《Her》那样的,目前技术还很难实现。

张钹院士表示,这种智能目前是做不到的。

人工智能目前遇到最大的问题,就是要在对人脑了解很少的情况下去做人工智能,所以就会产生各种各样的流派,利用这种模糊性来宣传一些观点。但是,这些观点也不是完全胡说八道。

什么叫做爱,什么叫做美,美是主观的还是客观的,这些都是特别严肃的哲学问题。但这类问题本身的定义就非常模糊。一定意义上,就是自定义。

目前流行的人工智能主要是基于人类的行为主义学派定义的智能,即人工智能在某些行为判定上超过人类。人工智能如果想要有新思路的发展,哲学层面应该走在前面。

杨田博士说,《Her》中的人工智能是很聪明的,像人一样有情感、有爱情。实际上,现在感知到的人工智能产品,基本都是来自于最优化问题衍生出来的,离真正做出具有人类情感的智能,差距还很大。

但是我们要用一个机器模拟出这个现象和行为来,是一件比较可怕的事情,人类其实有可能被人工智能的机器去利用弱点,反过来被机器所影响。

追问:在未来10年内,最可能实现的AI场景是?

杨田博士表示,就目前对AI的定义来说,AI可以把很多东西都做得挺好,比如,对话、语音合成。但离通过图灵测试远得很。就现在来说,语音相关的技术以及自动驾驶方面的技术其实有很多离实际应用很近。

张钹院士说,就目前而言,人工智能肯定是在很多限制条件下来定义的情况下,才能在某个方面超过人,全面超过人是不可能的。

如果我们要想知道人工智能究竟能做到什么程度,首先要定一个标准,什么叫人工智能。现在唯一能做的,就是采用哲学里的行为主义流派。按照行为主义定义人工智能,是图灵测试提出来的基本思想。即,机器表现出来的行为跟人一样或者差不多,就认为它具有智能。比如,机器做图像识别,识别率接近人或者超过人,就说它在图像识别这个具体条件下,跟人是一样的。

但是我们后来发现,这两个实际完全不一样,AI的鲁棒性和抗干扰能力比人差多了。这说明两者背后用的原理完全不一样。现在AI只能做到在某些行为上尽量接近人。

文继荣教授提出,写程序的各位可能心里一直有一个疑惑,为什么他写的程序叫人工智能,自己写的程序就不叫人工智能?如果程序的输出是确定的,就不是人工智能,如果输出是模糊的,是带有不确定性的,可以由精度来衡量,比如人脸识别95%,就是人工智能。如果程序能够应付多样性和变化性,还得到比较高的精度,就是人工智能。

不精确的东西、有很强的容忍性的场合是将来人工智能会成功的地方。

Topic 2:AI隐私

总的来说,张钹院士对于在中国用于维护公共利益而设立摄像头是支持的。他主张如果影响到了公共利益的罪犯要抓,个人要做点牺牲。但他也表示,个人利益和公共利益有些时候是矛盾的,中国比较强调公共利益,西方比较强调个人利益。如何平衡公共利益和个人利益,是一个非常严肃、需要认真研究的问题。

文继荣教授则表示,目前有些数据的搜集是完全没有必要的。欧洲也许过于强调隐私保护,对大数据人工智能产业的发展造成很大的影响,但是我们也不应该纯粹为了发展人工智能产业而忽略隐私保护。

杨田博士认为,在座的所有人或多或少都从所谓的个性化推荐上面获得了便利,可以理解为,通过向系统出卖隐私而换来生活的便利。

摄像头的存在,事实上确确实实改善了治安环境。中国有句古话叫「举头三尺有神明」。在过去,科学还没有那么发达的时候,大家相信自己的一举一动有神在上面看着,所以会约束自己不做坏事,现在,我们不相信神了,发现自己是没有约束的,这样带来不好的事情是,不受监管,这其实慧给所有人带来损害。在这种情况下,这些技术手段起到了威慑作用。

边界在于,这种数据采集能不能作为行为不当的证据。

文继荣教授看来,隐私问题是悬在我们头上的剑,而且风险很大。问题在于我们不能保证数据不会被滥用,很多事情容易越界。如果这些事情不受监管,是非常值得担忧的。

Topic 3:AI武器

文继荣教授表示,我们对AI的恐惧主要来自于对它自主性的害怕,是对它脱离人的控制的恐惧。

AI有黑箱性以及随着环境自学习的能力,开始,程序员给它一个规则,至于学出什么模型,会慢慢变得不可控。如果不可控,同时又有很大的威力,就是很可怕的事情。

张钹教授说,人类的意志才是战争的根本,机器只是被操控的。战争不管发展到什么程度,最后都是按照人类的意志进行的。危险在人,而不在机器。所有机器还是听人安排、听人指挥的,包括自主的机器。所谓无人平台也好、无人机也好,从来没有无人过,人在地下。

杨田博士表示,其对AI武器最大的担忧在于,我们应该允许在没有经过人类审判的情况下让武器去消灭一个人吗?

追问:未来的机器是否有可能做到具有大杀伤力或者带自主性的程度?

张钹院士:自主性不是指随便让机器爱做什么就做什么,而是把任务安在机器里,不要老用无线电连起来,机器按照安排好的任务去执行,即使是跟前面断掉了,没有无线信号了,它还照样能做。即使是有自主性的机器,它也不会主动做一些事情,只会做安排好的任务。 

追问:是否应该给AI分级,像自动驾驶一样?

文继荣教授认为,AI可以大致分级,和自动驾驶差不多。实际上,是根据它的智能体面对环境多样性或者变化性时的处理程度来定。传统写程序,输入是确定的,输出是确定的。自动驾驶,最后在所有的场景下都能够自主地完全用人工智能来完成驾驶,这是最高级别,不管你遇到什么情况,都能够有人自主的反应,能够做决定。最简单的是,「把程序写好写死」,只有特定的情况下才可以做。还有中间的层级,可以再详细定义和思考。

杨田博士也同意分级。他说,从现在人工智能的发展程度来讲,都是在做任务,从解一个小的任务到比较大的任务,到特定的场景下能够工作,到能够去做更多的事情,这(分级)也是帮助我们更好地理解现在的人工智能所处的阶段和接下来要做的事情的一个途径。

产业数据隐私应用场景人工智能伦理
暂无评论
暂无评论~