这个由多部分组成的专题应该能让你对什么是人工智能,它能做什么,以及它如何工作有一个非常基本的了解。该指南包含的文章有:(按发表的顺序)神经网络、计算机视觉、自然语言处理、算法、人工通用智能、视频游戏人工智能和真正的人工智能之间的区别,以及人类和机器智能的区别。

围绕人工智能伦理的论述是广泛的,多样的,而且完全失控。

辩论技术伦理的人往往是在经济上有最大利害关系的人--政治家、大型技术开发商和主要大学的研究人员。
烘烤我,亲爱的顾客



为什么我们应该拥抱评论经济

当反对部署危险的人工智能系统而不考虑其可能造成的伤害的最大论点通常归结为:"监管可能会扼杀创新",这可能很难衡量他们的动机。"监管可能会扼杀创新"。

更糟糕的是,媒体倾向于将人工智能伦理与投机性科幻小说混为一谈,从而使问题变得更加复杂。我们应该担心有智慧的人工智能会崛起并杀死我们所有人吗?是的。但这是一个伦理问题吗?我们会回到这个问题上。

业内人士可能很难把握开发和部署特定人工智能系统所涉及的科学、政治和道德影响。

那么,作为没有致力于了解人工智能的门外汉,我们如何解析令人难以置信的愚昧和经常是无意义的人工智能伦理学世界?我们使用常识。
伦理?道德?价值观?

人工智能伦理学是一个棘手的问题,因为它们包括两方面的情况。主要来说,伦理学指的是一个单一的理想:人类行为。但在人工智能的情况下,我们也必须考虑机器的行为。

例如,传统的汽车,没有能力做出可能伤害人类的决定。你的1984年福特Escort不能违背你的意愿选择自行切换车道,除非出现严重的机械故障。但你2021年的特斯拉启用了所谓的 "完全自动驾驶",可以。

然而,特斯拉并不是根据其个人伦理、道德或价值观做出决定。它是在做它被编程的事情。它不聪明,它不了解道路或驾驶是什么,它只是在执行代码,有能力实时整合新数据。

谈到人工智能,人们似乎想提出的第一个道德的例子是手推车问题。这个道德难题假设你在一辆手推车上,如果你什么都不做,就会撞上五个人,如果你拉动一个杠杆,就会撞上一个人。

从表面上看,合乎道德的做法似乎是牺牲一个人以拯救更多的人。但如果你这样做了,却发现那五个人都是连环杀手,而那一个人是个修女呢?

这些并不是你要找的道德规范

这并不重要。我是认真的。这不是一个人工智能伦理问题,即使手推车是自主的,操作员是一个神经网络。这只是一个道德难题。

几乎不可能训练特斯拉如何处理它绝对必须杀人的情况,因为这种类型的瞬间决策情况不会在虚空中显现出来。

这种深奥的问题通常是为了转移人们对真实情况的注意力。在这种情况下,特斯拉汽车在决定更大的利益和最小的伤害之间没有问题,它们没有知觉,也没有任何定义上的 "聪明"。它们在执行令人难以置信的基本道德行为时很费劲,比如 "我应该偏离方向撞上那辆停着的救护车还是继续开过去?"

这里唯一的道德问题是,这些系统是否应该被虚假地宣传为 "自动驾驶 "和 "完全自动驾驶",而它们两者都做不到。

这不是一个关于人工智能发展的伦理问题。

这是一个关于人工智能部署的道德问题。在城市街道上测试一个有可能杀人的产品是否合乎道德?在开放的道路上继续测试这个产品,即使它的滥用已经导致多人死亡,这仍然是道德的吗?

围绕偏见的讨论也是如此。算法是有偏见的,而且在大多数情况下,在这些偏见被公开发现之前,不可能确定为什么或如何表现出来。

它们都是有偏见的

如果因为担心一个系统可能表现出偏见而反对人工智能研究,那是相当困难的,因为每个人工智能系统都有偏见,这是一个安全的假设。我们需要推动技术的边界,以便作为一个文明进步。

但是,在一个系统被发现含有有害的偏见后,继续生产它是否符合道德?当密歇根州弗林特市确定其供水被毒害时,它决定让水继续供应,并向市民隐瞒危险。

甚至当时的总统巴拉克-奥巴马也上了电视,喝了一杯据说是弗林特自来水,向居民保证一切正常。大约95,000人因美国政府关于毒水的道德决定而受到伤害。

当涉及到人工智能时,政府和大科技公司甚至更加无能和虚情假意。

例如,谷歌是世界历史上最富有的公司之一。然而,它的算法以显示种族主义和偏执的方式表现出偏见。根据谷歌的说法,它并不是一家种族主义公司。那么,为什么它要继续开发和部署它知道是种族主义的算法呢?

因为为该公司工作的人认为,他们的产品所造成的伤害并没有超过他们所提供的价值。

对大多数人来说,搜索工作很好。每隔一段时间,它就会做一些令人难以置信的种族主义行为,比如当有人搜索 "大猩猩 "一词时显示黑人的图片,而这对我们所有人来说都是好的。

从道德上讲,我们这些使用谷歌的人和创造谷歌产品的人已经决定,我们愿意接受和支持一定量的种族主义和偏执。

我们不会在我们选择默许的伤害方面谈论人工智能的道德问题。讨论往往围绕着不可知的东西--我们应该对有知觉的AGI做些什么?

忽视伦理影响的伦理学

有一天,确定人工智能是否应该被允许购买财产或其他什么,可能是极其重要的。但今天我们还不如去讨论仙女座星系的土地权问题。这是没有意义的。目前没有迹象表明,我们在千年甚至百年之内就能获得人工智能的智慧。

然而,我们确实有成千上万的公司在世界各地使用种族主义的AI系统来判断求职者。我们有执法机构使用有害的、有偏见的面部识别和预测性警务系统来错误地逮捕、判断和判决人们。社交媒体公司大规模地部署人工智能,足以影响全球公众的看法。

现代人工智能的使用是危险的,也是不受监管的。在描述人工智能的现状时,"狂野的西部 "这个词被频繁使用,以至于它失去了所有的意义,但它仍然很恰当。

常识告诉我们,如果没有某种形式的监管,使用一个会杀人或表现出种族主义和偏执的产品是不道德的。

但是,几乎没有任何东西可以阻止任何人开发一个能够造成全面伤害的人工智能系统。