穆罕默德·本·穆萨·阿尔·花剌子模是公元九世纪的一位波斯学者。在阿尔·花剌子模逝世的数个世纪之后,他的作品引领欧洲进入小数和代数领域,为如今这个以技术为核心的年代奠定了基础。阿尔·花剌子模名字的拉丁文版本(Algorismus)现在演变成了一个很常见的词:算法(Algorithm)。
但在 2017 年,这个词却增添了一丝邪恶的气息。
事情的转变发生在上个月的美国众议院情报委员会。在俄罗斯干预 2016 年大选的听证会上,首席民主党议员 Adam Schiff 在 Facebook 的律师 Colin Stretch 面前指责道:「俄罗斯社交媒体运动为什么能够取得成功?其中一部分原因是,他们明白,你们 Facebook 使用的算法往往强调那些以恐怖为基础或以愤怒为基础的内容。」
莫非算法可以放大恐惧,从而帮助外国势力干涉民主规模?这听起来可太危险了!
几年前,「算法」表现出的现代性和智能性造就了 Google 等科技公司的成功。而今,人们却越来越担心科技公司的力量,「算法」成为了政治角力的替罪羊,还使得阿尔·花剌子模的名字笼罩上了一层负面光环。
今年 2 月,《Weapons of Math Destruction》一书的作者、数学家 Cathy O’Neil 提出了有关「算法霸主」的警告。YouTube 上面的儿童推荐视频算法引起了公众的不满,原因是将无害的 LBGT 内容删除,并将孩子们引向令人不安的内容。与此同时,学术研究者们还演示了机器视觉算法如何习得对性别的刻板印象;以及政府在刑事司法领域运用算法,反而将人民置于黑暗当中。
上周,前总统奥巴马的首席战略官 David Axelrod 在表露对未来媒体和政治担忧的时候,「算法」一词也突然到了他的嘴边。他说:「一切都在推着我们走向算法引导的定制化产品。这让我很担心。」
马里兰大学教授 Frank Pasquale 则表示:「大选真正让人们理解了算法系统的威力。」
这并非全新的担忧——关于 Facebook 抑制民众思想的「过滤泡沫」争论始于 2011 年。但是,Pasquale 表示,现在有一种更强烈的感觉,那就是算法应该被质疑并承担责任。他说,这个问题的一个分水岭是欧盟最高法院 2014 年的决议——授予市民「被类似 Google 等搜索引擎遗忘的权利」。Pasquale 称,这是一个早期的「算法公共义务和竞争性的小冲突」。
当然,对 Facebook 等公司的指责并不应该只针对算法或数学,更应考虑创建这些算法的公司和个人。这也就是 Facebook 首席律师 Capitol Hill 出现的原因。微软研究员兼麻州大学教授 Hanna Wallach 说,「我们不能将人工智能系统仅仅视为技术层面的东西,它已成为了一种社会技术的固有产物。」Hanna Wallach 正不断推进人工智能领域的道德考量。
有证据表明,部分硅谷的算法工程师很清楚这一点。塔夫茨大学人类学家 Nick Seaver 深入科技公司内部,以了解工作人员对于算法的想法。Seaver 在一篇关于「模糊性(fuzziness)」的论文中写道:「一个受访者说,『算法也是人类』,他可以画出自己和同事所研究的算法的界限。」
然而,Facebook 等公司承受的压力可能会让算法成为人类和企业失败的替罪羊。有一些说法暗示甚至明示,算法有其自主性。但不幸的是,让「科学怪兽」算法承担罪责可以转移公司制造算法时关于责任、策略和选择的问题关注度,但却减少了我们真正解决算法问题的机会。
让算法成为我们眼中的「洪水猛兽」,同样使得我们对算法如此普遍的原因熟视无睹。在计算蒙蔽我们双眼的时代,算法是理解数据风暴的唯一途径。算法提供了一种优雅而高效的方法完成任务,让世界变得更好。
在曼哈顿社区大学教授数学的 Audrey Nasar 指出,类似匹配肾脏捐赠者和接受者的算法应用告诉我们,算法并非都具邪恶色彩。他说:「算法对我而言是一种礼物,它是找到解决方式的一种手段。」Nasar 还发表了关于如何鼓励高中生进行算法思维的研究成果。
这可能是一种和阿尔·花剌子模产生共鸣的情绪。他在著名的代数教程中写道,算法将有助于「人们不断要求的各种任务,例如继承、遗产、分割、诉讼和贸易,以及相互之间的各种交易」。
人们需要算法,也期待 2018 年,公司、政府和人民能对算法的使用负责,而不在把问题归咎于「算法」一词。