谷歌人工智能是种族主义吗? – 趋势明显

在我们的文章“Microsoft设计人工智能以学习翻译”中,我们解释了基于人工智能的平台分析文本的复杂性,因为他们需要了解所提出的内容的背景,这些内容因作者的起源而异。这意味着在完成工作时可能会出现问题,就像Google遇到种族问题一样。

根据麻省理工学院的研究人员的说法,旨在检测滥用在线内容的人工智能系统更有可能将推文标记为“冒犯性”,如果它们是由自称为非洲裔美国人的人发布的话。

研究人员构建了两个人工智能系统,并在超过100,000条推文的数据集上进行了测试,这些推文已被人类注释,并带有诸如“攻击性”,“无”或“仇恨言论”等标签。其中一种算法错误地将非裔美国作者46%的无害推文标记为具有攻击性。

对较大数据集的测试,包括一项由540万条推文组成的测试,发现非洲裔美国作者的出版物被列为具有攻击性的可能性的1.5倍。当研究人员测试Google Perspective(一种公司允许任何人用来缓和在线讨论的人工智能工具)时,他们发现了类似的种族偏见。

考虑到美国白人至上主义者的大规模枪击事件。 UU。并且+和新西兰已经引起政界人士越来越多地呼吁社交媒体平台采取更多措施来消除仇恨言论。这些研究强调了任务的复杂程度。

如果语言令人反感,那可能取决于谁说出来并且听谁说话。例如,使用“单词N”的黑人与使用它的白人非常不同。但是人工智能系统并不了解,而且目前还不了解那种细微差别。

急于使用软件自动消除攻击性语言的风险可能会使少数人的声音变得沉默。调节在线内容是一项创伤和困难的工作,因此技术公司愿意依赖人工智能系统而不是人类(它们也便宜得多)。

这个案例类似于我们的文章“旧金山禁止面部识别其失败”,其中它再次成为种族问题和AI平台的失败。所以我们问这个问题,是否应该禁止自动检测种族失败的攻击性文本的平台?

资讯来源:由0x资讯编译自CRIPTOENDENCIA。版权归作者Jean Pierre Oliveros所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢