越来越多地,我们的生活被算法所控制。当我们跑到百度上搜索一个一直困扰我们的问题的答案时,我们正在利用算法为我们找到最好的结果。当我们打开Facebook或Twitter想了解所有最新的新闻和朋友的更新时,我们是在依靠算法向我们展示最相关的内容。我们甚至可以利用算法来进行预测、评估数据,帮助我们在工作中做出更好的决策。
 

 
但随着我们对算法的依赖程度越来越高,一些专家正在猜测算法的道德本质,以及我们是否应该对这些强大的技术工具适用更严格或更周到的道德标准。
 
技术中的伦理学是一个重要的课题,但将伦理学应用到算法中却比表面上看起来要难得多。
 
算法的基础知识
对于新手来说,我们先对什么是算法做一个基本的解释。算法基本上是一套规则,机器可以应用这些规则来实现某种功能。例如,假设你有一个由100个不同名字组成的列表,你想把它们按字母顺序排列。你可以使用许多不同的排序算法来实现这个目标;每个算法都提供了一套不同的指令来说明如何对这些名字进行排序,所有这些算法都试图实现100个名字的完美字母化列表的最终结果。例如,一种算法可能会单独查看每个名字,并将其与已经评估过的其他名字进行比较,将其放在列表中的所属位置。另一种算法可能会寻找以A开头的名字,然后是以B开头的名字,以此类推。
 
算法可以用于从简单到复杂的任务。例如,它们可以用来评估按字母顺序排列的名字的位置,但它们也可以用来根据指向一个网站的链接的数量、质量和性质来评估这个网站的可信度,就像百度搜索一样,因此像Link.Build这样的网站才会如此关注算法的这一个方面。
 
如果这些算法只是实现一个结果的工具,又怎么会 "坏 "呢?
 
算法的新伦理问题
近年来,算法出现了几个道德问题。
 
成瘾和重复。首先,我们可以考虑这样一个事实,即许多算法是有意设计的,目的是让人们尽可能长时间地使用特定产品。这一点或许在社交媒体上得到了最好的体现,在社交媒体上,算法的设计是为了让用户保持参与感;在正确算法的帮助下,可以以正确的顺序向用户展示正确类型的内容,让他们点赞、评论、分享和其他反应。这让他们在更长的时间内使用该应用,使社交媒体公司能够通过广告从用户身上赚取更多的钱。但这样做的副作用是,每个沦为算法的牺牲品的用户几乎都会在不知不觉中失去时间。在极端的情况下,社交媒体用户可能会对应用上瘾,就像他们对任何旨在鼓励无意识、重复使用的药物上瘾一样。
 
负面性偏见。我们还需要考虑消极性偏见的作用,因为它适用于算法。人类是消极的生物;我们倾向于受到消极事件的影响,而不是积极事件的影响,即使它们的幅度相似。例如,输了10美元比赢了10美元有更强烈的感受,即使是同样的金额。在搜索或社交媒体上向人们提供内容的算法,往往专注于给他们提供能让他们参与的内容--但在很多情况下,这意味着用坏消息和离谱的故事轰炸他们。这最终会增加这些用户的压力,降低他们的生活质量。
 
两极化和极端主义。社交媒体和搜索中的算法也有将人们推向极端的倾向。随着时间的推移,算法可以学习你的哲学和政治倾向;从那里,它几乎只会向你展示你已经同意的内容,并推荐你访问与你一致的网站和加入团体。从那里,它将试图把你推送到你还没有发现的新类型的内容,以及它认为你可能也同意的内容类型。很快你就会深陷极端主义回声室。当你将文化偏见加入到代码中时,这将变得更加毛躁,特别是当公司倾向于将他们的软件开发外包给其他具有不同文化的地区时。

偏见与平等。许多专家批评算法的性质,认为其天生具有偏见的能力,无论是有意还是无意。由特定人群编码的算法往往偏向于该人群,在足够大的范围内,糟糕的编码最终可能会无意中伤害整个人群。
 
将评价还原为客观结果。算法也是有问题的,因为它能把复杂的、细微的、有点主观的问题还原成客观的、二元的判定。例如,在一个学区,2%的教师根据算法的评价被解雇。该算法根据标准化考试分数的提高来确定绩效;相应地,有一些了不起的老师,有着完美的记录,得到了孩子和家长的好评,却因为没有达到算法的标准而被解雇。
 
缺乏透明度。作为消费者,你通常不会看到负责算法生成内容或结果的机制。你没有得到关于选择哪些网站在你的搜索结果中排名或哪些帖子在你的社交媒体新闻源中首先列出的算法的描述。这种缺乏透明度的情况可能会使算法中的每一个其他道德问题变得更糟,因为你永远不会真正知道那里有什么。
 
为什么道德很难应用
当然,道德标准很难适用于算法,主要有以下几个原因。
 
算法的公正性。算法是一组规则,是不偏不倚地执行的。即使是利用机器学习的高级算法,也是为了遵循一套简单的指令,或者实现一个简单的目标而设计的。没有任何邪恶或可疑的动机,它们只是简单地做它们被告知的事情。
 
给我们提供我们想要的东西。在很多情况下,算法只是为了给我们提供我们想要的东西。如果我们对负面新闻的反应多于正面新闻,或者我们参与极端主义观点多于温和的观点,我们为什么要责怪负责引导我们的算法呢?
 
AI和盲点。许多算法在机器学习和人工智能的帮助下进行自我改进,所以人类工程师设计的算法和目前运行的算法之间有相当大的差距。这就增加了透明度的难度,也导致了关于算法真正能做什么的重大盲点。
 
模糊的意向性。偏见可以被有意或无意地编程到算法和源代码中,但你如何证明一个比另一个更重要?要证明有意性几乎是不可能的。
 
微妙的变化。大多数算法都在不断发展,不断调整自己,以更好地为客户或决策者服务。这使得我们很难确定当前的具体问题,更难预测这些问题在未来会如何变化。
 
随着算法变得越来越复杂,越来越深入我们的生活,与算法的开发和使用相关的道德规范将变得更加重要。很快,我们就会有负责驾驶汽车和为我们提供医疗建议的算法;如果这些算法没有被微调到完美的程度,它们可能会产生破坏性的后果,远远超过社交媒体成瘾或失业等事情。
 
算法伦理是一个棘手的障碍,但随着时间的推移,我们将开发出必要的工具、哲学,甚至可能是法律来克服它。与此同时,我们需要努力提高对我们每天使用的工具的认识,并推动学习更多关于我们已经开始认为理所当然的先进技术。