公平算法

拇指1

算法偏差在很多人的脑海中。

软件工程师关心算法偏差,因为我们关心公平性。但是,公平是一个复杂的社会问题,软件工程师或开发人员在没有先了解他们使用AI驱动的产品的更广泛的公平考虑之前,就无法真正评估或解决算法偏差问题。

因此,他们必须将公平视为最佳实践流程,称为“设计公平”。

软件工程师有责任确保他们构建的产品是公平的。公平不是一个新问题,也不主要是一个AI或技术问题:它是一个社会问题,需要通过批判性和积极主动的思维以及遵循产品设计的最佳实践来解决。

公平是社会问题,这一事实意味着,在公平讨论中,常常会在政治问题上进行权衡:是否应该为一个群体而不是另一个群体实现公平?

公平是否意味着关注每个人的程序一致性或在某些子组中争取平等的结果?

从本质上讲,这些问题似乎没有一个普遍正确的答案:它们是政治性的,反映了个人价值观。因此,辩论可能永远不会得到完全解决,因此需要的是一个透明的决策过程,并与必要的利益相关者一起讨论。

设计公平(FbD)是指明确制定决策的过程,并与必要的利益相关者一起讨论。这是一个协作,动态的过程,用于提出正确的难题,切实解决这些问题,并以负责任的方式透明地记录下来。

FbD需要对产品目标和实施中的设计决策进行批判性思考,特别强调要对技术社区希望如何公平对待谁公平决策。

通过进行系统的过程,它旨在将公平性纳入产品开发过程的核心。应该将重点放在开发AI驱动的系统的这种思维方式上,这不仅是因为这是对技术社区的最新要求,而且还因为AI放大并更加明显地体现了技术产品对公平性的影响。

FbD的目标很关键,但很有限。

FbD不会告诉产品团队什么是公平。公平意味着在不同背景下的不同事物。

如上所述,某人如何解释公平,其核心是社会或政治问题和辩论。

在某些情况下,风险不是很高,无需过多辩论即可解决。但是,对于诸如“错误信息是什么”或“应该在我们的平台上管理哪些内容”之类的问题,这些问题将进行激烈辩论,并成为公司和社会必须面对的一些最困难的问题的核心。 。

科技界很可能将从未来的法规中受益,该法规可以更全面地解决这些问题。

FbD不会为科技界解决所有这些问题。如上所述,FbD涉及解决困难的问题,提供在上下文中解决问题的框架,并记录这些决策的透明度。

此外,即使在某些任务的公平性定义上达成了一致,也有可能存在一些创新使技术界更加公平。

要求某人建造最公平的系统就像要求某人建造最快的飞机。创新和投资总是可以做更多的事情。

建立公平的系统是一个反复不断的过程,而不是一个一次性的检查表,该检查表给出了通过/不通过的权利,并且如果个人通过则无需进一步考虑。尽管可以对系统的公平性进行重大改进,但这并不意味着将完全解决系统问题。

FbD的目标应该是实现三件事:浮现关于公平的正确(硬性)问题,提供解决这些问题的过程,并记录该过程和所涉及的决策。

提出有关公平的正确(困难)问题

工程师应如何定义该产品的公平性?他们应该对谁公平?他们应如何平衡相互矛盾的优先事项?这些决定总是在开发AI系统时做出,但通常会嵌入到技术选择中。 FbD旨在确保以明确的推理为基础进行反思。

提供解决这些问题的过程

利益相关者之间应该建立桥梁,例如产品和政策。最佳实践分析和缓解程序提供了一种一致的方式来检查和分析AI驱动的系统,以适应公平的方法并有效地实施它。

记录过程和涉及的决策

通过先例和案例研究,这应该可以实现更好的产品设计,以及更顺畅,更快的产品发布。

应用FbD将通过透明地分解如何思考我们的工作对公平的影响的方式,使技术社区可以建立内部和外部的信任。为了实施FbD,可以执行以下步骤:

  1. 了解产品目标
  2. 符合公平性定义
  3. 记录相关的系统组件
  4. 衡量系统组件之间链接的公平性
  5. 缓解已查明的不公平来源
  6. 将公平性衡量和缓解措施纳入未来的产品开发周期

让我们更详细地看一下每个步骤:

步骤1:了解产品目标

明确地这样做的原因是,个人将对目标持有不同的假设,而没有做出明确的假设,而围绕公平性的讨论可能会因围绕产品目标缺乏一致性的困惑而蒙上阴影。

第2步:根据公平性定义

根据要考虑的对象以及如何对它们进行分组,可以解决许多公平问题。重点应该在于同意在给定的产品环境中应遵循哪些公平原则。

步骤3:记录相关的系统组件

大多数AI系统中存在四个高级组件:基本事实(系统目标),标签(用于训练模型的系统目标的近似值),预测和干预。

步骤4:衡量系统组件之间链接的公平性

为了保证标签的公平性,这可能是在评估标签商是否可能在系统中引入偏差。对于模型,这将评估算法本身是否可能引入偏差。在几种常见的使用案例中,如何做到这一点的最佳实践不断涌现,但是具体细节将根据特定产品以及子组和公平性的定义进行定制。

第5步:缓解已查明的不公平来源

如果在设计阶段之一发现问题,则需要解决。如何完成此操作将取决于所确定问题的特定上下文和性质。在某些情况下,可能会进行直接的修复,例如收集更多具有代表性的数据,而在另一些情况下,可能需要进行更广泛的研究或ML模型的重新训练和实验,以了解偏差问题的根本原因是什么。

步骤6:将公平性衡量和缓解措施纳入未来的产品开发周期

直到这一步,评估才在给定的时间点进行。随着系统的发展和输入的变化,对其公平性的评估可能会发生变化。此步骤为正在进行的公平性分析制定了计划。

如果将来可以重用步骤4中用于分析公平性的基础结构,则使此步骤变得更容易。

综上所述

FbD是一个相对较新的想法,执行它的方法仍在开发中。

公平取决于环境:对大学申请的候选人公平与对工程职位的候选人公平不同,关于期望什么样的多样性或平衡性可能会有不同的规范或期望。

随着社会意识到新的公平问题,这些准则将随着时间而改变。内容审核中的公平可能需要采用其他方法来实现面部识别中的公平。

从根本上讲,公平是一个社会问题。为了适当地解决公平问题,技术界需要全面了解人工智能产品的公平性,并且他们需要承认与公平相关的选择不是中立的。

尽管公平并不是主要的AI问题,但AI和其他可扩展技术会放大并阐明我们的决策对公平的影响。这段旅程才刚刚开始,有望支持负责任的AI系统开发。

资讯来源:由0x资讯编译自DATADRIVENINVESTOR,版权归作者Ayse Kok所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢