AI武器面临“奥本海默时刻”?

发布时间:2024-11-25 01:04:26 来源: sp20241125

奥地利外交部长沙伦贝格在自主武器国际会议上发言。

奥地利外交部长沙伦贝格在自主武器国际会议上发言。

4月29日至5月1日,自主武器国际会议在奥地利首都维也纳召开,来自140余个国家和地区以及联合国、非政府组织和研究机构的1000余名官员出席。此次会议以“站在十字路口的人类:自主武器系统和监管的挑战”为主题,聚焦人工智能(AI)与军事技术结合相关话题,尤其是由AI增强和支持的自主武器系统,引发舆论广泛关注。

作为一种新兴武器平台,自主武器系统能够在无人干预情况下独立搜索、识别并攻击目标。对此,奥地利外交部长沙伦贝格表示:“谁生谁死的决定权,必须掌握在人类而不是机器手中。然而,事实是科技正在飞速发展,政策却落后了。”

针对当前已有自主武器投入局部地区冲突的实例,沙伦贝格称:“人类正站在一个十字路口,自主武器系统很快将布满世界战场。我们已经通过AI控制的无人机和基于AI的打击目标筛选,见识到这一点。这是我们这一代人的‘奥本海默时刻’。”他提到的奥本海默,是美国“曼哈顿计划”的首席科学家,被称为“原子弹之父”。但奥本海默一直用自己的影响力呼吁控制核武器,并极力反对核军备竞赛。

此次会议强调了AI的军事使用和AI军备竞赛的危险,表达了对AI武器化引发的伦理和安全风险的担忧。有参会人员认为,AI的运用降低了自主武器制造门槛,可能造成此类武器数量泛滥,如果落入恐怖分子等非国家行为体手中,将加剧国际社会的不稳定。美国信息物理学家阿吉雷发出警告称,2017年拉塞尔博士预言的“杀人机器人时代已经到来”。他表示,只要拥有3D打印机和基本编程知识,一名学生便可制作出有能力引起大规模伤亡的无人机。另外,人工智能系统如果遭黑客攻击,导致卫星和其他数据丢失,甚至人工智能本身引起的幻觉,都可能成为AI武器系统潜在的风险。

会议还探讨了是否应对AI武器化进行必要干预和控制。会议期间,许多专家建议采取控制武器出口、建立人道主义法规等措施,应对AI武器化带来的挑战。此次会议达成一项不具约束力的行为准则,并形成一份强调“以人为本”的报告,以供下届联合国大会使用,旨在弥补当前国际法在禁止AI武器化方面的空白。

近年来,国际社会关于监管AI武器化的呼声持续走高。在联合国的主持下,各国在这方面进行了长达10年的专家谈判。2023年11月,在首届全球人工智能安全峰会上,28个国家和欧盟签署首份针对AI的国际性声明《布莱切利宣言》,同意通过国际合作建立AI监管方法。

相关评论指出,随着AI驱动的致命性自主武器系统投入实战,继火药和核武器之后的“第三次军事革命”或将发生。然而,短期内实现对AI武器的有效管控并非易事。随着全球冲突不断升级,多国企业不断加大对AI的推广和投资力度,从客观上加大了监管难度。此外,AI武器涉及多种技术组合,也已不再适用传统的军备控制条约。

红十字国际委员会主席斯波利亚里茨在会上强调,目前还不能保证AI武器将来不会落入恐怖分子之手,这也是为何迅速采取行动监管AI武器化如此重要。有评论人士指出,AI驱动的武器系统在具备低成本、易操作等优点的同时,也存在违背道德、容易失控等风险。利用好AI武器这把“双刃剑”,需要国际社会的广泛合作和对未来责任的深刻认识,确保其安全可控。(郭秉鑫、刘明宇)

(责编:王潇潇、任一林)