编译 杏花编辑 青暮对于某些任务,人工智能系统已经取得了显著的进展,能够被部署到我们的道路和家中。比如,物体识别可以帮助汽车自动驾驶;语音识别则使得个性化语音助手(如Siri和Alexa)能更加流畅交流。对于其他任务,人工智能系统甚至超越了人类的表现,如AlphaGo击败世界最强围棋选手。这一切都展示了人工智能前景之广阔,它们将开启我们的车门、协助医生更精确地诊断疾病、辅助法官做出更加一致的裁决,还将帮助雇主找寻合适的求职者。
然而,我们也认识到这些人工智能系统可能存在缺陷。在停车标志上涂鸦可以欺骗分类器,使其误认为这不是停车标志;向良性皮肤病变图像加入噪声同样会导致分类器错误判断。美国法院使用的风险评估工具已被证实对黑人的判定有偏见,而企业招聘工具也显示出了对女性的歧视。
那么,我们如何既实现人工智能带来的好处,又解决这些对社会和个人来说至关重要的问题?简而言之,我们怎样才能构建可信的人工智能?
本文旨在汇聚计算机社区中的专业知识与情感,以支持一个关于可信AI长期研究项目。本文重点探讨三个关键领域:首先,在可信计算基础上增加新的属性需求;其次,对于数据使用提出全新问题;再次,对确保AI可信度进行正式方法审查。此通过跨学术界、产业界及政府机构的人才聚集,将培养一个跨学科、新型研究社区,为AI领域内未来的发展奠定坚实基础。
周以真,是一位深受瞩目的华裔女科学家,她是ACM与IEEE双Fellow,并曾任卡内基-梅隆大学教授及美国国家自然基金会计算与信息科学工程部助理部长。她主要研究领域包括形式方法、网络安全以及数据隐私等。她目前担任哥伦比亚大学数据科学研究院主任兼计算机科学教授,并致力于网络安全、数据隐私以及AI技术研发。
从1999年国家科学院发布《网络空间信任》报告以来,可信计算一直是科技界的一个热点话题。随着时间推移,这个概念逐渐演变成了一场多部门合作的大事件,从2001年的“可信计算”计划开始,一系列关于网络安全项目相继启动,其中包括“网络信任”、“反恐怖主义”等计划。虽然最初它源自于科技界,但现在已经成为多个联邦机构共同参与并资助的一项大规模项目。
同时,工业界也是推动这一运动的一部分。在微软CEO比尔·盖茨2002年的备忘录中,他提出了四大支柱,即安全、隐私、高效率和商业诚 信。他指出,无论是在软件还是硬件层面,都需要不断改善,以确保用户能享受到更高质量,更稳定的服务。
经过20年的努力,现在我们不仅要追求软件和硬件产品在功能上的完美,还要考虑它们是否具有透明性、一致性,以及它们是否能够正确处理复杂情况。这要求我们不仅要提高准确性,还要增强鲁棒性,同时保证公平无偏且具备问责制。此外,我们还需提供足够清晰直观的解释,使得每个人都能理解这个复杂世界背后的逻辑,从而建立起人们对整个系统及其结果真正意义上的信赖。
最后,让我们一起探索如何通过形式验证来设计执行并部署这些人工智能模型,使其变得值得我们去相信——让程序代码得到永恒证明,让输入输出之间建立无懈可击的连接,让算法行为透明易懂,让所有的人类参与其中,不再只是旁观者,而是主导者,最终实现一个充满智慧又富含人类精神的地方——那就是一个真正的人类友好的未来世界!