在即将迎来2020年之际,AI领域的发展仍旧是社会关注的焦点。作为一家致力于研究AI对社会和伦理影响的机构,AI Now研究所自成立以来已经发布了四份年度报告。在去年的《AI Now Report 2019》中,该所深入探讨了人工智能技术丑闻所引发的一系列问题,并提出了相应解决方案。
为了预热年度报告,AI Now研究所每年都会举办一次「AI Now 研讨会」,邀请跨学科的专家进行深入交流。今年第四届研讨会上,来自不同领域的人士齐聚一堂,对人工智能带来的负面影响进行了广泛讨论。
左为 Kate Crawford, 右为 Meredith Whittaker
会议开场由联合创始人Kate Crawford和Meredith Whittaker共同主持,他们分别围绕五个主题展开讲话:(1)面部识别与情感识别;(2)从偏见到公平转变;(3)城市监控与边界;(4)劳动力、工会与机器人化;以及(5)气候变化中的 AI 影响。
首先,在面部识别方面,一些企业和政府正在推广这一技术,但其应用引发了一系列争议。例如,一些航空公司采用无需登机牌的人脸识别登机方式,这种做法虽然方便,但也存在隐私侵犯的问题。此外,有报道指出FBI和ICE未经同意就使用驾驶执照数据库进行面部搜索,这样的行为引起了公众高度关注。
随着越来越多的声音呼吁限制或禁止这种技术,其应用受到法律层面的制约。一例是第九巡回上诉法院裁定Facebook因未经许可使用用户照片而违反隐私权。而一些城市开始签署禁令,比如旧金山禁止在公共住房中使用人脸识别技术。这不仅限于美国,欧洲国家也有类似的运动,如英国议会委员会要求停止在没有法律框架的情况下测试这项技术。
第二个主题涉及到了从偏见到公正转变的问题。这一年,我们看到了人们对于如何通过更改数据记录过程而非简单删除数据集中的某个变量来消除系统性偏见有更深刻认识的一个重要进步。这一点体现在密歇根州自动化决策系统MiDAS错误率高达93%的问题,以及预测性警务软件可能依赖错误且带有种族主义色彩的历史记录上的发现上。
此外,由普林斯顿大学教授Ruha Benjamin出版的两本书《追逐科技》和《迷人的科技》强调了解分类如何被用作调整社会等级,以及这些逻辑如何被融入到 AI 技术中。另外,Kate Crawford 和艺术家Trevor Paglen 的展览「Training Humans」展示了创建机器学习系统所需训练数据的大型艺术作品,从而揭示了 AI 训练集背后的历史和逻辑。此事件显示出 ImageNet 数据集在塑造工业化 AI 时扮演着至关重要角色的现实。