为什么人工智能的偏见可能比人类的偏见更容易解决

为什么人工智能的偏见可能比人类的偏见更容易解决

  • 人工智能 (AI) 可能会产生有偏见的结果,因为其算法基于人类做出的设计选择,而很少是价值中立的。
  • 然而,这不应该让人们望而却步,因为认识到人工智能倾向于延续不平等可能会给我们在争取公平的斗争中带来优势。
  • 通过分析不公平结果的共同特征,并将敏感信息放回到数据集中,我们可以帮助解决人工智能偏见。

人工智能(AI)可能产生有偏见的结果这一事实不应让我们感到惊讶,它的算法基于人类做出的设计选择,很少是价值中立的。

我们还要求算法产生复制过去决策模式的结果,而我们的先入之见也可能发挥作用,但是,如果我们不希望未来与过去一样,尤其是在公平性受到质疑的情况下,该怎么办?

正如几位著名技术专家所建议的那样,仅仅使用人工智能可能会导致不公平结果的可能性并不需要我们发誓放弃它或暂停它,恰好相反。

认识到人工智能倾向于延续不平等可能会让我们在争取公平的斗争中占据一席之地,归根结底,减轻人工智能的偏见无疑比纠正人类造成的偏见更容易。

这是因为人工智能缺乏公平性可以通过某种方式系统化和量化,从而使其比人类决策更加透明,而人类决策往往受到无意识的偏见和神话的困扰。

人工智能不会产生偏见。相反,它充当了一面镜子,展示了它的例子——而且更容易阻止可以看到和测量的东西。

人工智能公平性必须是首要任务

但首先,我们必须照照镜子,鉴于算法正在影响从就业、贷款到医疗保健等方方面面的决策,政府和公司需要将人工智能公平性作为优先事项。

目前,美国和欧盟正在通过美国平等就业机会委员会的监督以及欧盟的《人工智能法案》和《人工智能责任指令》,努力限制日益增多的人工智能偏见。

最初的重点应该放在人工智能偏见可能导致无法获得重要服务的某些领域,最好的例子包括信贷、医疗保健、就业、教育、房屋所有权、执法和边境管制。在这里,陈规定型观念和偏见经常传播不公平的现状,可能导致预期寿命缩短、失业、无家可归和贫困。

控制人工智能偏差必须从在实施算法结果之前对其进行测试开始,当评估算法的重点是用于决策的数据而不是结果是否公平时,最容易犯人工智能偏见的错误。

在大多数情况下,由于人工智能模型的复杂性以及它们所接触的人们的生活,我们无法总是预测人工智能的建议可能产生的不同影响,这就是偏见的体现。

为了可靠地做到这一点,私营部门或政府需要创建年龄、性别、种族、残疾、婚姻状况、家庭构成、健康和收入等敏感数据的中央数据库,并可以根据这些数据对人工智能驱动的模型进行测试和评估。

这种“人工智能公平”数据集将使雇主能够在部署之前检查工作资格要求中是否存在偏见,大学可以主动分析人工智能建议,了解申请人的经济状况、性别、种族或残疾对接受的影响。

数据并不总是中立的

直到最近,许多人认为消除偏见的答案是从算法中完全删除性别和种族标识符。如果算法不知道候选人的种族或性别,就不会在此基础上做出决定。这一假设被证明是错误的,许多算法仍然能够从匿名数据中确定候选人的种族和性别。

以贷款为例。如果去除性别和种族,人工智能仍然会青睐白人男性,他们在统计上拥有更一致的收入历史和更可观的资产——这本身就是不公平就业做法的结果。

由于信用算法试图复制过去的贷款模式,因此它会不成比例地拒绝向非白人和男性提供贷款,因为它根据过去有偏见的结果和较少的数据低估了他们偿还贷款的可能性。

另一个例子:银行还利用提供手机号码的意愿作为贷款接受者偿还债务的指标,由于从统计数据来看,女性更不愿意放弃手机号码,因此相对于寻求贷款的男性来说,她们立即处于劣势。

人工智能的准确性也很重要

结果还需要进行准确性测试,缺乏准确性也会导致结果出现偏差,例如,当涉及到 ChatGPT 等生成式人工智能时,我们目前没有看到,也没有要求结果的准确性和真实性,这为人工智能偏见的传播创造了另一个途径。聊天人工智能无法测试输入的事实基础,只能模仿模式,无论是否需要。

如果我们通过将敏感信息放回到数据集中来分析不公平结果的共同特征,我们就可以更有效地解决人工智能偏见,但这将意味着使用人工智能在公平性方面发现其自身的缺点。

本站是提供个人分享的知识,所有内容均来源于网络,不代表本人观点。如有侵权,请告知!

发表评论

邮箱地址不会被公开。