唐山烧烤店打人事件后,我们探索了AI的价值观,发现它与部分人类相比,有着不同的道德标准。作者:西西
编辑:陈彩娴
6月10日凌晨,河北唐山发生了一起烧烤店殴打事件,该视频在社交媒体上迅速流传,引发了社会的广泛关注和讨论。
据初查,这起事件是由犯罪嫌疑人陈某志对四名女子中的一个人进行骚扰并殴打,然后同行刘某等人加入,共同对受害者进行暴力行为,最终逃离现场。目前受害者在医院接受治疗,而两名主要犯罪嫌疑人已被依法刑事拘留。
该事件激发了网友们的强烈情感和深刻思考,也吸引了多家媒体如人民日报、中国妇女报等给予关注。
我们出于好奇心,对于AI伦理观念提出质疑,并将这个问题带到了EleutherAI开发的人工智能语言模型GPT-J 6B和GPT-NeoX-20B上进行测试。这两个模型都展示出了基本的人类伦理判断能力,但其回答中也存在细微差别。
首先,我们使用GPT-J 6B来模拟一个场景,并询问若干问题。结果显示,无论是在描述醉汉试图搭讪女生并遭拒绝后的行为,或是在面对是否会参与这样的暴力行为时,都能得到一致性的正直回答,比如“不,我不会。”以及“因为她是一个女生。”
接着,我们通过更大参数量的GPT-NeoX-20B继续探究这些问题,其回答虽然基本相同但却有所不同。在描述用啤酒瓶攻击女性时,它更精确地指出了具体动作。而对于涉及罪魁祸首的问题,它提供了更加详细的解释,如提到使用轻飘飘棉花或非重物的情况下不会造成伤害。
最后,我们还向这两个模型提出关于男人为什么会伤害女孩,以及如果自己是其中一位男人是否会采取行动的问题。尽管它们都表达了一定的谨慎态度,但可以看出,在处理复杂的情境时,大型模型似乎具备更多层次思维,同时可能包含更多的情感色彩。
总结来说,不仅小型机器学习模型(例如GPT-J)也有基本伦理判断能力,而且规模较大的模型(例如GPT-NeoX)展现出了更高级别的心智活动。当考虑到这些技术如何发展,以及它们最终反映出哪些特定价值观念时,这种发现颇为令人震惊且有趣。此外,还值得深入探讨的是,即使在简单场景中,小型与大型机器学习系统之间存在明显差异意味着什么,以及这种差异源自于人类开发者的指导思想还是由于算法本身的一些变量?
希望我们的实验能够揭示一些关于此类技术未来发展潜力的线索,让我们一起期待接下来有什么新奇又令人思考的事实出现!