1
$\begingroup公司$

我最近开始考虑机器学习模型的公平性。公平维基页面(机器学习)公平定义为:

在机器学习中,一个给定的算法被认为是公平的,或者如果它的结果独立于一些我们认为是敏感的、与之无关的变量(例如:性别、种族、性取向,等。).

加州大学伯克利分校CS 294反过来,公平的定义是:

理解和减轻基于敏感特征的歧视,,性别、种族、宗教、体能和性取向

很多其他资源,比如ML公平性将公平性限制在上述类别,而不考虑其他类别。

但公平比这里提到的这几个范畴要广泛得多,你可以很容易地再加上一些,比如智商、身高、美貌任何可能对你的学分、学校申请或工作申请有实际影响的东西。这些类别中的一些在现在的数据集中可能不受欢迎,但是考虑到数据的指数增长,它们很快就会,在某种程度上,我们将有大量关于每一个人的数据所有的生理和心理类别映射到数据集中。

那么问题是如何定义数据集中所有这些类别的公平性。如果所有的生理和心理维度都被认为是这样的,那么当我们这样做的时候,我们在神经网络中的所有权重,比如说,都应该是完全相同的,也就是说,对人类的任何生理或心理类别,不以任何方式或形式给予任何歧视,那么,公平的定义是否可能呢?这意味着,一个在所有可能维度上都公平的机器学习系统将无法区分一个人和另一个人,这将使这些机器学习模型变得毫无用处。

总而言之,尽管考虑到性别、种族、性取向等类别,撤销对任何个人的偏见是完全有意义的,但这个集合并不是封闭的,而且随着越来越多的类别被添加到这个集合中,我们将不可避免地达到一个不可能(在统计意义上)歧视的地步。

这就是为什么我的问题,公平的机器学习模型是可能的吗?或者,唯一可能的公平机器学习模型是那些任意包含某些类别但忽略其他类别的模型,当然,如果这些类别远远不公平的话。

| 改进这个问题 | |
新贡献者
matcheek是此网站的新参与者。注意要求澄清、评论和回答。看看我们的必威电竞的行为准则
\ endgroup美元
  • $\begingroup公司$ 在这个问题上,你似乎故意曲解了公平的定义,总是把所有的因素都包括在内,这使得你不可能在不挑战你的定义的情况下回答问题。大多数人不会将“公平”扩展到总是包括所有类别的所有用途,这导致了反对自动公平的荒谬论点,而自动公平不太可能是任何人工智能决策系统的目标。这是你想问的问题吗?必威电竞 \ endgroup美元- - - - - -尼尔·斯莱特 5月26日11:07
  • $\begingroup公司$ 我看你不太同意我的措辞公平。这些定义,正如你们看到的,不是我自己发明的。我只是提到他们。是否清晰简洁。显然不是。这就是为什么我突出了这个词也应该是突出显示。那里对于哪些类别应该或不应该得到公平对待,是一个巨大的回旋余地。如果我没看错的话公平的在人工智能中应该只包含一些类别而排除其他类别?这是你的观点吗? \ endgroup美元- - - - - -matcheek 5月26日11:55
  • $\begingroup公司$ 我的观点是:我们不能就堆栈交换进行哲学辩论。如果你的问题归结为“为什么公平通常不被认为是包罗万象的所有特征?”那么哲学堆栈交换可能会更好。如果你的问题是人工智能系统是如何处理公平的,那么你可能想从你的还原和荒谬中退一步(套用“在一个绝对公平的系统中,没有可测量的特征可以用来做决定,那么重点是什么?”)因为在实践中没有人会这样对待公平 \ endgroup美元- - - - - -尼尔·斯莱特 5月26日12:23
  • $\begingroup公司$ 或者另一种说法:我不想发表一个简短的回答,驳斥你对“公平”的过于宽泛的定义,并开始谈论人工智能系统中的公平,结果却与你就你所使用的定义展开了辩论。然而,如果你正在寻找对定义本身的指导/修正,它可能会被回答(也许对哲学本身更好) \ endgroup美元- - - - - -尼尔·斯莱特 5月26日12:26
  • 2
    $\begingroup公司$ @matcheek我会重新提出你的问题“公平的机器学习模式可能吗?”因为“是否有一个公平的定义适用于ML模型,它考虑了所有可能影响‘公平’的因素?”(或者类似的东西)。总的来说,我建议你提出你的问题,这样才能更客观地回答问题,避免辩论。 \ endgroup美元- - - - - -nbro 5月26日12:50

你的答案

matcheek是一个新的贡献者。友好点,看看我们的的行为准则

点击“发布你的答案”,你就同意了我们的服务条款,隐私政策饼干的政策

浏览其他标记的问题必威英雄联盟必威电竞问你自己的问题