AI参战机器人带来的不可逆转社会变革

在这场人类的战争史长河中,科技的前沿应用往往首先被军事化。但人工智能(AI)的出现,无疑是以一种独特的方式,让这个规律显得尤为敏感。美国《华尔街日报》最近的一篇报道,提醒我们尽管美军无人机在行动中误伤平民的情况屡见不鲜,但这些错误并非智能化武器本身的问题,而是情报识别过程中的失误。而五角大楼正在推进Maven计划,以确保更精准地识别和打击敌方目标,这正是谷歌这样的公司认为,如果追求的是和平,那么准备好战争才是关键。

对于这一趋势,中国指挥与控制学会青工委副主任、国防科技大学军事专家石海明副教授对科技日报表示:“毋庸置疑,人工智能技术对于保障国家安全具有巨大的潜力,但就目前来看其技术成熟度还远远不够。在过去的人工智能研究和实践中,它也展现出了不确定性及失控的风险,比如无人驾驶汽车造成的人员伤害,以及曾经发生过的美军‘利剑’机器人的‘倒戈’事件。反对将人工智能用于军事目的的人们,其担忧或许反映了人们对其未来应用前景的一种担忧和焦虑。”

近年来,以无人机为代表的人类智慧武器装备取得了显著发展,从陆地到水面,再到水下,无人作战装备都开始投入战斗。这意味着AI系统已经成为不可忽视的一股力量。

全球主要强国高度重视这一领域。自20世纪80年代以来,各国包括美国、日本、俄罗斯以及欧洲部分国家,都投入大量资源进行深入研究。

我国也积极参与相关技术研发,并通过《新一代人工智能发展规划》等文件,加速双向转化,为新一代AI在指挥决策、防务模拟等领域提供支持。

石海明教授进一步阐述说:“未来,对于未来的发展,我们仍需谨慎观察,不仅仅因为一些突破性的技术,如仿脑芯片、人机交互等。如果它们能够引领新的革命,那么军事领域可能会迎来真正意义上的变革。”实际上,与此同时,也产生了一系列关于战争责任伦理问题,比如自主机器是否可以授权杀害生命?参战自主机器是否应该承担战争后果?

“值得注意的是,这些问题目前主要集中在伦理学领域,有来自多个学科——包括政治学、法律学、哲学等多方面探讨,对于技术长期走向有益影响。” 石海明表示,“然而国际社会尚未形成禁止或限制使用这种自动化武器系统的条约。而且,即使这些系统无法区分平民与士兵,它们似乎也不负责任。”

他最后总结道:“从历史角度看,深度利用AI参与战争显示出一种不可逆转趋势。不过,在这场涉及伦理和法律复杂议题的大戏中,我们需要继续探索讨论,使之更加清晰可行。”

猜你喜欢