迈向可信赖的人工智能:可验证声明的支持机制
人工智能技术的最新发展使其在商业、科学与其他创新领域得到了广泛的应用。随着此波应用浪潮的涌现,人们越来越意识到人工智能系统所带来的风险,并认识到现有法律与业界、学界规范仍不足以保证人工智能的可靠研发。在这篇报告中,OpenAI、Google Brain、图灵研究所等研究者提出了诸多建议,意在使不同利益相关方能够更容易地检验人工智能开发者的对外声明,特别是有关其安全性、安保性、公平性和隐私性的声明。保证可信任的人工智能发展是一个多方面的问题,研究者认为,执行这些机制有助于促进该目标的达成。该报告中提出的机制可以帮助我们处理不同利益相关方可能面对的问题。针对妨碍人工智能声明有效评估的具体问题,该报告提出了一 一对应的一系列机制和建议。其中部分机制已经存在,但仍需完善,而另一部分则是前所未有的。该报告旨在为进一步增强人工智能研发声明的可验证性作出贡献。英文全文报告:https://arxiv.org/pdf/2004.07213.pdf。