来自纽约伦斯勒理工学院的计算机科学家三人组 最近发表了一项研究,详细阐述了一种潜在的人工智能干预谋杀的方法: 伦理锁定。这里的大意是通过开发一种人工智能来阻止大规模的枪击事件和其他道德上不正确的枪支使用,这种人工智能可以识别意图,判断是否是道德使用,如果用户试图将枪支准备好进行不正当的射击,那么最终会使枪支失效......。
 

 
显然,这里的贡献并不是开发出一把智能枪,而是创造出一个符合伦理的人工智能。如果犯罪分子不愿意在枪上装上AI,或者他们继续使用哑巴武器,那么当AI安装在其他传感器中时,它仍然可以有效。假设它一旦确定人类的暴力意图,就可以用来执行任何数量的功能。它可以锁门、停电梯、向当局报警、改变交通灯模式、基于位置的短信提醒,以及其他任何数量的反应措施,包括解锁执法人员和安保人员的武器进行防御......
 
现实中,假设能让一个有道德的人工智能理解诸如,入室抢劫和家庭暴力等情况之间的区别,这需要一个跳跃性的信念,但基础工作已经存在。如果你看看无人驾驶汽车,我们知道已经有人因为依靠人工智能保护自己而死亡。但我们也知道,面对到目前为止,相对较少的意外死亡事故,拯救数万人生命的潜力是不容忽视的... ...