DeepMind 发布博客文章 三种方式保证稳健和可被接受的 AI 模型
近日,DeepMind 发布博客文章探讨如何保证稳健和可被接受的 AI 模型。文章介绍道:自有计算机编程以来,也就意味着软件中会存在错误。随着时间推移,软件开发人员在部署前便已建立一套测试和调试的最佳实践方案,但这些实践并不适合现代的深度学习系统。如今,机器学习的主流实操方式是,在训练数据集上训练系统,然后在倒另一组上进行测试。尽管这能展示模型的平均性能,但即使在最坏的情况下,确保稳健性或可接受的高性能同样至关重要。在本文中,我们描述了三种严格识别和消除学习预测模型中的错误的方法:对抗性测试,稳健的学习和形式验证。