在探索人工智能的无限可能时,我们必须确保其实现的承诺。周以真,ACM与IEEE双Fellow、华人女计算机科学家,她的研究专注于网络安全、数据隐私和AI,这些都是可信AI实现所必需的关键领域。从可信计算到AI,我们已经取得了长足进步,但仍面临着挑战。
我们需要解决的人工智能系统在某些任务上的表现超越人类水平,同时也要防止它们被操纵或误用。这就像篮球比赛中的“三分球”,既要精准投中,又要避免犯规。在物体识别上,汽车可以更好地识别道路标志;语音助手则能提供更加个性化的交流。但是,如果有人涂鸦停车标志,那么分类器就会被骗过;如果图像中加入噪声,分类器将错误地判断为恶性病变。
美国法院使用的人工智能风险评估工具已被证明对黑人持有偏见,而企业招聘工具同样存在歧视女性的问题。因此,我们如何确保这些技术不会成为社会不公正的一个新形式?我们如何才能同时享受人工智能带来的好处,同时解决这些对人类和社会来说生死攸关的情况?
为了达成这一目标,本文倡导跨学术界、产业界和政府之间建立一个新的研究社区,将来自多个研究社区和利益相关者的专业知识和情感汇聚起来,以支持一个关于可信AI的广泛且长期的研究项目。这项工作要求我们重新审视传统软件与硬件系统,并适应今天复杂的人工智能系统。
除了传统属性,如安全性、隐私性等,可信AI还需要其他重叠属性,如准确性、鲁棒性等。此外,还有公平性的问题,以及问责制、透明度以及可理解性的需求。机器学习社区通常将准确性作为黄金标准,但在追求更高级别的一致性或公平性的情况下,我们可能会牺牲一些准确率。
今天的人工智能系统比传统计算机系统复杂,因为它们依赖于概率来建模人类行为和物理世界的不确定因素。而我们的目标是设计一种方法,使得这些概率模型能够值得信赖,从而建立最终用户对其行为的一种信任。
这种方法之一是通过形式验证,在大域内一劳永逸地证明属性,或识别出反例并提供改进建议。虽然对于小型状态空间来说逐一测试每个输入值或行为是不现实,但对于大型(甚至无限)状态空间来说,是不可行的。在过去几年里,由于语言、算法及工具发展,以及硬件及软件规模增加,对形式验证产生了新的兴趣。
然而,要让形式验证扩展到复杂的人工智能模型,就需要进一步开发新的语言、新算法及新工具。这涉及从传统形式方法向包含概率逻辑、高级抽象概念以及非确定论元素的情景进行转变。此过程中,将深入探讨如何有效地表述特定的AI应用程序所需满足的一系列预期属性,并通过数学证明保证他们得到满足。