以AI为中心的案例

拇指1

鉴于AI扩散到我们的社会技术环境中,作为AI研究人员,我们还应该思考司法系统如何做出贡献(并被使用),以确保边缘化个人(例如残疾人)的包容和权利人工智能系统的开发和应用。

在某种程度上,西方世界的司法制度旨在考虑权力制度。它已被用来保护和提供西方社会的边缘化群体。

另一方面,对于司法系统存在明显的担忧,例如启动法律程序的成本,以及制定既相关又具有前瞻性的法律以保护现在和将来的人们的困难程序。

例如,我们如何确保白人盲人能得到他想要的律师工作?

此外,应该在“公平”和“正义”框架之间进行对比,因为当前的公平框架着重于平等并假定普遍性,而正义框架则考虑了权力制度(承认随之而来的内在不平等),公平机会和中心。在最边缘化的国家。

机器学习

“ data-medium-file =“ https://i2.wp.com/www.datadriveninvestor.com/wp-content/uploads/2019/05/Depositphotos_106394000_s-2019-min.jpg?fit=300%2C200” data-大文件=“ https://i2.wp.com/www.datadriveninvestor.com/wp-content/uploads/2019/05/Depositphotos_106394000_s-2019-min.jpg?fit=620%2C414” class =“ lazy lazy -hidden aligncenter size-large wp-image-11524“ src =” data:image / gif; base64,R0lGODlhAQABAIAAAAAAAP //// yH5BAEAAAAALAAAAAAAAABAAEAAAIBRAA7“ data-lazy-type =” image“ src =” https:// i0 .wp.com / www.datadriveninvestor.com / wp-content / uploads / 2019/05 / Depositphotos_106394000_s-2019-min-620×414.jpg?resize = 620%2C414&ssl = 1“ alt =”机器学习“ width =” 620“高度=“ 414” src =“ https://i2.wp.com/www.datadriveninvestor.com/wp-content/uploads/2019/05/Depositphotos_106394000_s-2019-min.jpg?resize=620% 2C414 620w,https://i2.wp.com/www.datadriveninvestor.com/wp-content/uploads/2019/05/Depositphotos_106394000_s-2019-min.jpg?resize=300%2C200 300w,https:// i2。 wp.​​com/www.datadriveninvestor.com/wp-内容/上传/2019/05/Depositphotos_106394000_s-2019-min.jpg?resize=768%2C512 768w,https://i2.wp.com/www.datadriveninvestor.com/wp-content/uploads/2019/05/Depositphotos_106394000_s -2019-min.jpg?resize = 696%2C464 696w,https://i2.wp.com/www.datadriveninvestor.com/wp-content/uploads/2019/05/Depositphotos_106394000_s-2019-min.jpg?resize= 630%2C420 630w,https://i2.wp.com/www.datadriveninvestor.com/wp-content/uploads/2019/05/Depositphotos_106394000_s-2019-min.jpg?w=1000 1000w“ data-lazy-sizes = “((最大宽度:620px)100vw,620px” data-recalc-dims =“ 1″>

机器学习(ML)中的分配正义

有人可能会争辩基于公平的能力(在“自由到……的状态”的意义上的能力)度量,而不是基于资源的度量,因为能力是人的事,资源是手段。

举一个具体的例子,如果环境不适合轮椅使用者,花钱买轮椅可能无济于事,重要的是行动自由。

在ML中开发基于能力的指标的一些方法包括但不限于:

    • 与社区紧密合作,利用以用户为中心/参与式设计等方法
    • 生成特定于上下文的功能列表
    • 社区成员之间的能力均衡

以人为本的目标

一个更关键的问题是我们如何构建为人们服务的AI系统?

作为一个社区,我们太擅长构建标准化的数据集和指标,使我们免受任何“主观”的影响。

最终,这种系统的发展成为一场带有数字的游戏。

这种系统的目标和目的在此过程中丢失了。

我们还应该批判性地检查我们为谁服务以及在我们构建的系统中嵌入了什么样的价值。

连接了超级设备的人正在计算机上工作。

例如,让我们考虑配备注视检测和面部识别功能的VR游戏,以“训练” ASD的人与他们进行眼神交易所并以“适当”的情绪密度做出反应

尽管它被宣布为神经多样性的“辅助”技术,但它具有很强的能力假设,并且该技术的真正受众不是ASD社区,但治疗师和医学专业人员已经具备权力和权限来“修复”人们更好或更糟。

如果没有与目标社区的紧密联系,即使我们心中充满公平,也会出现问题。一个例子是来自ICML ’18的广受赞誉的最佳论文,其中作者声称通过训练一个句子自动完成模型对ML公平做出了贡献,该模型在“非裔美国人英语”上的表现与“标准美国人英语”一样好。

具有讽刺意味的是,在MT上招募的作者或评估员都不是非裔美国人,这带来了“谁在寻求并从中受益的问题?”的问题。并且“对于非裔美国人来说,这真的是一次很好/有价值的经历吗?”

人们普遍认识到,边缘化人群在AI系统的培训和评估中所占的比例不足,因此通常在AI系统方面的经验会下跌。

克服潜在冲突的一些潜在解决方案包括在用户端区分隐私,设备上的数据,知情同意,而在系统端将异常值映射到中心变得至关重要。

AI界也应该对基于家长制的边缘化个人的过度保护持谨慎态度,并争辩这些个人的代理机构决定他们的数据是否将在AI系统中使用。

AI社区的重点应该放在“与……一起设计”而不是“为边缘社区设计”。

资讯来源:由0x资讯编译自DATADRIVENINVESTOR,版权归作者Ayse Kok所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢