人工智能在军事领域的应用:一场道德与技术的较量
最近的一篇题为《人工智能:战争新规则》的文章出现在英国《金融时报》网站上。作者海伦·沃勒尔通过探讨AI在现代战场上的角色,引发了人们对于未来战争形态的思考。
随着AI技术的快速发展,军事指挥官们期待着能够拥有更高效、精确的数字化部队,以超越人类指挥官的能力。然而,这种愿望也伴随着担忧:随着AI在军事行动中扮演越来越核心的角色,指挥官可能会失去对冲突进程的控制。冲突升级的风险增加,且缺乏道德或法律层面的有效监管。
一个关键问题在于如何理解并降低这些风险。西方逐渐形成共识,认为不应让AI独立作出使用核武器的决定。联合国秘书长古特雷斯更是呼吁全面禁止完全自主的致命武器系统。这表明了在技术进步的同时,强化监管的重要性。
科技的发展速度往往快于法规的更新,这就要求我们在积极拥抱新技术的同时,也要警惕潜在的风险。哈佛大学的研究人员指出,AI乐观派有时低估了部署自主武器系统所面临的挑战。实际上,AI的能力可能被过分夸大。
支持这一观点的主要专家认为,AI不会取代人类决策者,而是用于增强军事洞察力。尽管战争的性质正在发生变化,远程技术也在不断改进武器系统,但他依然坚持:“完全自动化战争只是一种幻想。”
当前,AI在军事领域的应用还远未达到完全自主的程度。它主要被用作规划与后勤、网络战(包括间谍活动和信息战)以及武器瞄准系统的辅助工具。这些工具已经在乌克兰战场上投入使用,帮助指挥官更有效地使用无人机。
令人关注的是,一些原本对AI持反对意见的声音实际上是对战争本身的反感而非技术本身。他们认为,即使AI能提高精确度,并不意味着会减少伤亡或降低冲突的可能性。例如,在阿富汗的早期阶段,随着无人机袭击成本的下降,我们是否真的减少了杀戮?这引发了对AI军事应用伦理性的质疑。
此外,反对AI战争的人还指出了一些技术上的局限性。前美国海军战斗机飞行员、乔治·梅森大学教授米茜·卡明斯就直言,大语言模型在军事场景中容易犯严重错误。
我们需要继续对AI战争系统进行严格的审查,并确保政治领导人对此负起责任。同时,对于科技公司关于AI可能实现的宏大承诺持怀疑态度也是必要的。新的国防科技领域既带来了机遇也伴随着风险;尤其需要注意的是,在AI武器军备竞赛过程中,这些新兴能力需要得到充分的审视和讨论。