1、电子战中的人工智能
人工智能(AI)究竟是什么?它与电子战(EW)的未来有什么关系?人工智能正在改变我们所做的一切吗?如果忽视人工智能,那将是一个错误。众所周知,特斯拉采用了人工智能算法,特别是卷积神经网络、递归神经网络和强化学习。从根本上说,这些算法可以汇编来自多个传感器的数据,分析这些数据,然后做出决策或向最终用户提供信息,从而以惊人的速度做出决策。这一过程以指数级的速度发生,超过了人脑的处理速度。因此,从根本上说,人工智能是机器像人类一样执行认知功能的能力。
人工智能可以驾驶汽车、撰写学期论文、以适当的语气帮你创建电子邮件,因此,它在军事领域的潜在应用也是理所当然的。具体来说,就是整合人工智能电子战及其提供的潜在能力转变。虽然 "电子战 "一词已经使用了相当长的一段时间,但将人工智能注入这一领域为提高速度和杀伤力和/或保护开辟了新的途径。
电子战包含一系列与控制电磁频谱有关的活动,传统上一直依赖人类的专业知识来探测、利用和防御电子信号。然而,现代战争的速度和复杂性已经超出了人类操作员的能力。这正是人工智能的优势所在,它带来的一系列优势将彻底改变电子战的格局。
将人工智能融入电子战的首要好处之一是增强了实时处理和分析海量数据的能力。在数字时代,战场上充斥着来自通信网络、雷达系统和电子设备等各种来源的大量信息。人工智能算法可以迅速筛选这些数据,识别出人类操作员可能无法识别的模式、异常情况和潜在威胁。这种能力不仅能提高威胁检测的准确性,还能大大缩短响应时间,使友军在快速演变的局势中获得关键优势。
在这种情况下,人工智能赋能的兵力倍增器就出现了,它能在面对复杂多变的局势时做出更高效、更有效的决策。现代战场会产生大量电子信号,需要快速准确地识别。人工智能驱动的算法擅长筛选这些数据、辨别模式,并识别在以往场景中可能被忽视的信息。这使兵力能够迅速做出反应,以更快的速度做出关键决策。
此外,人工智能还具有适应和学习新信息的能力,这一特性在电子战领域尤为有利。电子威胁和反制措施处于不断演变的状态,需要反应迅速和灵活的策略。人工智能驱动的系统可以根据不断变化的情况迅速调整战术,持续优化性能,而无需人工干预。这种适应性对于对抗复杂的电子攻击和领先对手一步至关重要。
人工智能与电子战的融合还为指挥官提供了更先进的决策工具,比历史标准更详细、更快速。人工智能算法可以分析各种场景,考虑地形、天气以及友军和敌军兵力等因素。这种分析为指挥官提供了全面的战场情况,使他们能够在充分了解情况的基础上做出决策,最大限度地提高任务成功的概率,最大限度地降低潜在风险。此外,人工智能驱动的模拟可以演绎同的场景,使军事规划人员能够完善战略,评估不同行动方案的潜在结果。美国今年早些时候进行了一次以印度洋-太平洋地区为重点的演习,将大语言模型(LLM)作为规划和决策过程的一部分。一位演习成员称赞了系统 "学习 "的成功和速度,以及系统成为战场上可行资源的速度。另一个例子是,利用已输入人工智能系统的数据对目标清单进行优先排序,人工智能系统能够考虑瞄准行动、网络,从而比操作人员更快、更全面地了解战区情况。
不过,必须承认,要完成人工智能整合,还存在一些潜在的障碍。首先,美国防部大多数实体无法直接获得人工智能技术。大多数从事前沿人工智能工作的组织都是商业公司,它们必须与军事系统合作或集成。这可能会受到美国现行预算和研发流程的阻碍。此外,美国的这些流程进展缓慢,人工智能技术很有可能无法融入美国兵力。还有潜在的道德和安全考虑。随着人工智能系统在探测和应对威胁方面承担更多责任,人类的监督和控制水平也会出现问题。为了与战争法则保持一致,需要有人工参与,而不是完全依赖人工智能来做出攻击决策。任何时候,只要有可能造成人员伤亡、附带损害或其他问题,就需要人类做出有意识的知情决策,而不能任由人工智能自生自灭。在人工智能自主决策和人工干预之间取得适当的平衡至关重要,以防止意外后果或机器在没有适当问责的情况下做出生死攸关的选择。
最后,人工智能的整合引发了对潜在网络漏洞的担忧。虽然人工智能可以提高电子战的速度和准确性,但它也为试图操纵或破坏人工智能系统的恶意行为者带来了新的攻击途径。要保护这些系统免受网络威胁,就必须采取强有力的整体网络安全方法,同时考虑到人工智能驱动的电子战的硬件和软件层。
2、战争算法:人工智能在武装冲突决策中的应用,ICRC视角
在不到一年的时间里,Chat-GPT 已成为一个家喻户晓的名字,反映了人工智能驱动的软件工具,特别是生成式人工智能模型的惊人进步。伴随着这些发展,人们频频预测人工智能将彻底改变战争。在人工智能发展的现阶段,人们仍在探索可能的参数,但军方对人工智能技术的反应是不可否认的。美国网络安全和基础设施安全局局长詹-伊斯特里警告说,人工智能可能是 "我们这个时代最强大的武器"。虽然自主武器系统在有关人工智能军事应用的讨论中往往占据主导地位,但人们较少关注在武装冲突中支持人类决策的系统中使用人工智能的问题。
在这篇文章中,红十字国际委员会军事顾问鲁本-斯图尔特(Ruben Stewart)和法律顾问乔治娅-海因兹(Georgia Hinds)试图批判性地审视人工智能用于支持战争中武装人员决策时被吹嘘的一些益处。其中特别讨论了减轻对平民的伤害和节奏问题,尤其关注武装冲突中对平民的影响。
即使在最近的炒作之前,人们可能已经以各种形式使用过人工智能,事实上,人们可能正在使用主要由人工智能驱动的设备阅读这篇文章。如果您使用指纹或人脸打开过手机,参与过社交媒体,使用手机应用程序规划过旅程,或者在网上购买过披萨和书籍等任何物品,那么这些都可能与人工智能有关。在很多方面,我们对人工智能已经习以为常,常常在不知不觉中将其应用到我们的日常生活中。
但如果人脸识别软件被用来识别要攻击的人呢?如果类似的软件不是寻找最便宜的航班将你送往目的地,而是寻找飞机对目标实施空袭呢?或者,机器推荐的不是最好的披萨店或最近的出租车,而是攻击计划?这显然是开发基于人工智能的国防决策平台的公司 "即将到来 "的现实。
这类人工智能决策支持系统(AI-DSS)是一种计算机化工具,使用人工智能软件显示、综合和/或分析数据,并在某些情况下提出建议,甚至预测,以帮助人类在战争中做出决策。
AI-DSS 的优势往往体现在提高态势感知能力和加快决策周期上。下文将根据人工智能系统和人类的局限性,并结合现代冲突的规划过程,对这些说法进行解读。
AI-DSS 不会 "做出 "决定。不过,它们确实会直接影响人类的决策,而且往往影响很大,其中包括人类在与机器交互时的认知局限性和倾向性。
例如,"自动化偏差 "指的是人类倾向于不批判性地质疑系统的输出,或搜索矛盾的信息--尤其是在时间紧迫的情况下。在医疗保健等其他领域已经观察到了这种情况,经验丰富的放射科医生的诊断准确性受到了人工智能错误输出的不利影响。
在医疗领域,不准确的诊断可能是致命的。同样,在武装冲突中,过度信任也会带来致命后果。2003 年,美国的 "爱国者 "防御系统两次向友军联军飞机开火,原因是这些飞机被误认为是攻击导弹。在随后的调查中,发现的主要缺陷之一是 "操作员接受了信任系统软件的培训"。
这些运作方式,再加上人机互动的这些特点,有可能增加结果偏离人类决策者意图的可能性。在战争中,这可能导致意外升级,无论如何都会增加平民和受保护人员的风险。
3、武器系统中的人工智能-2023最新100页报告
人工智能(AI)已经渗透到生活的许多领域,国防领域也不例外。从优化物流链到处理大量情报数据,人工智能在军事领域都有应用。越来越多的人认为,人工智能将对未来战争产生重大影响,世界各地的部队都在大力投资人工智能所带来的能力。尽管取得了这些进步,但战斗在很大程度上仍然是人类的活动。
通过使用人工智能支持的自主武器系统(AWS)将人工智能引入战争领域,可能会彻底改变国防技术,这也是当今最具争议的人工智能用途之一。关于自主武器如何遵守出于人道主义目的而制定的武装冲突规则和条例,一直存在着特别的争论。
政府必须寻求、建立并保持公众对开发和使用人工智能的信心和民主认可,尤其是在 AWS 方面。从媒体对我们调查的报道中可以清楚地看出,人们对在预警系统中使用人工智能有着广泛的兴趣和关注。实现民主认可有几个要素:
理解:对自主武器的讨论,以及在很大程度上对人工智能的讨论,都受到追求议程和缺乏理解的困扰。我们的目标之一是为建设性辩论提供事实依据,政府的坦诚和透明将有助于这一进程。
实现以下目标对这一进程至关重要:
其中的一个关键因素将是禁止在核指挥、控制和通信中使用人工智能。一方面,人工智能的进步有可能提高核指挥、控制和通信的效率。例如,机器学习可以提高预警系统的探测能力,使人类分析人员更容易交叉分析情报、监视和侦察数据,并改善核指挥、控制和通信的防护,使其免受网络攻击。
然而,在核指挥、控制和通信中使用人工智能也有可能刺激军备竞赛,或增加各国在危机中有意或无意地升级使用核武器的可能性。使用人工智能时,决策时间被压缩,可能会导致紧张局势加剧、沟通不畅和误解。此外,人工智能工具可能会被黑客攻击,其训练数据可能会中毒,其输出结果可能会被解释为事实,而实际上它们只是统计上的相关性,所有这些都可能导致灾难性的结果。
4、关于美国海军陆战队情报工作的人工智能(AI)战略和设计-131页报告
(版权归属原作者,如涉侵权,请联系删除)