可以把战争交给人工智能吗?生成型人工智能聊天GPT开发公司开放人工智能的首席执行官萨姆·奥尔特曼(照片)表示,“要想那样,需要追究的问题很多”,表现出了慎重的态度。对于“朝鲜发动突然袭击时是否可以依靠应对速度较快的人工智能进行防御”的提问,他回答道:“这不是可以轻易决定的问题。”
奥尔特曼7日在与美国智库布鲁金斯研究所的视频访谈中,就所谓的“人工智能武器化”发表了自己的看法。当高级研究员迈克尔·奥汉伦问到,“假设朝鲜向首尔出动载人战斗机、而韩国用人工智能控制的防御机器人进行拦截,是否可以让人工智能做出危害生命的决定吗?”时,他回答说:“真的有很多问题要追究。”
奥尔特曼解释说:“战斗机已经接近韩国,但人类没有时间参与决策。这种情况下,也可以由人工智能做出拦截决定。但是,能否确信这种攻击正在发生,应该确定到什么程度等,需要考虑在灰色地带的什么地方划清界限。”
分析认为,奥尔特曼的上述发言是指,在多个强国加快人工智能武器化速度的情况下,有必要进一步讨论人类的介入程度等问题。尽管如此,他表示,并不反对人工智能武器化本身。他说:“从未听说过人工智能应该决定发射核武器的主张。但是也没有听到在危急情况下不能使用人工智能的主张。”
不过,他又表示:“我们(开放人工智能)站在美国及其同盟的一方,虽然希望人工智能技术对人类有利,但并不希望给有我们不同意的领导层的国家带来利益。”最近,美国正在推进人类介入人工智能武器化义务化的规制,并计划在本月内与中国举行人工智能治理合作第一次会议。
各国情报机关正在激烈地展开利用人工智能进行谍报战的竞争。彭博社同一天报道说:“微软为美国情报机关开发出了与网络断开的生成型人工智能模型。”此前,即使想利用生成型人工智能,由于基于开放的互联网,担心机密信息外泄或被黑客攻击,所以使用受到限制。
美国中央情报局副局长西塔尔·帕特尔在最近召开的安保会议上表示:“各国情报机关就人工智能的应用问题展开了激烈的竞争,在情报机关引进人工智能的第一个国家将在这场战争中获胜。”
华盛顿=常驻记者文炳基 weappon@donga.com