人工智能技术在军事用途方面的情况展开,指出主要核国家需就规范其军事用途达成共识以降低核升级风险,同时阐述了人工智能在军事领域使用的现状、带来的影响及目前全球在相关问题上缺乏共识等情况。
在当今科技飞速发展的时代,人工智能(AI)的应用范围不断扩大,然而其在军事领域的运用却引发了诸多担忧。据香港《南华早报》网站3月30日的报道,人工智能专家发出警告,主要核国家必须在规范人工智能技术的军事用途方面寻求共识,以此来最大限度地降低核升级的风险。
牛津大学人工智能伦理研究所主任约翰·塔西乌拉斯指出:“在人工智能领域,竞争是不可避免的,但重要的合作同样不可或缺。”本月,塔西乌拉斯在牛津大学接受采访时进一步强调,“我们必须确保人工智能在军事领域的使用处于人类的控制之下,特别是在核武器方面。要知道,核战争毁灭人类的可能性远远大于机器人毁灭人类的可能性。”
事实上,许多国家,包括已知的核国家,正越来越多地将人工智能应用于军事用途。根据华盛顿智库布鲁金斯学会去年的一份报告,在2022年至2023年间,五角大楼与人工智能相关的合同价值从2.61亿美元大幅增至6.75亿美元,这一数据直观地反映出人工智能在军事领域的热度不断攀升。
以色列在加沙战争中对人工智能的使用更是引发了广泛的疑问。人们不禁要问,这项技术在精确瞄准目标和最大限度减少平民伤亡方面究竟能起到什么样的效果?值得注意的是,人们普遍认为以色列拥有核武器。
对于人工智能在军事领域的应用,存在着不同的观点。一些人认为,人工智能可能对增强核威慑有帮助,但不可忽视的是,人工智能技术也使军备控制变得日益复杂,甚至可能成为破坏稳定的因素。
目前,人们已经普遍认识到在军事领域引入人工智能技术所带来的风险,尤其是从常规战争升级到使用核武器这一阶段的风险。斯德哥尔摩国际和平研究所大规模杀伤性武器项目助理研究员弗拉季斯拉夫·切尔纳夫斯基赫表示,人工智能在各种核武器系统中具有潜在用途,涵盖预警和情报、核指挥、控制和通信、运载系统以及具有反制潜力的常规系统等多个方面。
切尔纳夫斯基赫还指出:“在这些系统中使用人工智能会对威慑实践产生影响,并有可能颠覆战略的可预测性和稳定性,这意味着由蓄意、无意甚至意外的核威胁升级引发核冲突的风险更高。”然而,令人担忧的是,全球至今尚未就人工智能的核利用问题达成共识。
切尔纳夫斯基赫强调:“由于核冲突会带来极具灾难性的后果,所以努力应对军事人工智能带来的核风险是一个亟需合作的领域。”伦敦大学国王学院战争研究高级讲师妮古拉·利弗林豪斯表示,中美已就应该维持由人类控制核武器使用的决定达成协议,联合国安理会其他常任理事国——英国、法国和俄罗斯——也应承诺让人类负责决策和指挥控制。
本文围绕人工智能在军事领域尤其是核领域的应用展开,阐述了其应用现状、引发的争议和潜在风险。目前全球在人工智能核利用问题上缺乏共识,核升级风险增大。呼吁主要核国家加强合作,规范人工智能军事用途,维持人类对核武器使用的控制,以保障全球核安全与稳定。
原创文章,作者:modesty,如若转载,请注明出处:https://www.qihaozhang.com/archives/10476.html