人工智能透明度和监管问题在2020年迫在眉睫

毫无疑问,人工智能(AI)的蓬勃发展及其在各个领域中越来越多的企业采用。在使用连续智能(CI)的越来越多的关键应用程序中,A至关重要。但是,随着透明度和监管问题的出现和增长,可能会阻碍AI和CI的采用。 […]

毫无疑问,人造材料的成功发展
情报(AI)及其在各个领域中日益为企业所采用。 A是
在越来越多的利用连续性的关键应用程序中至关重要
智能(CI)。但是,AI和CI的采用方式可能会受到阻碍,因为
透明度和监管问题不断涌现并日益增长。

这些问题是我对以下内容的介绍性评测的主题
为高级战略家举办的为期一天的AI实施会议。的
会议是上个月AI峰会的一部分,会议包括
纽约大学德勤咨询公司Expedia集团的演讲,
洛克希德·马丁公司,今日美国富国银行,纽约长老会医院
Network,埃克森美孚,诺华和IBM Watson AI XPRIZE
– XPRIZE基金会。

另请参阅:立即采取行动以防止AI臂架的法规出轨

演讲者谈到了他们的好处和挑战
组织通过其AI实现而实现。一整天,大部分
我与会议参与者的对话中,重点是透明度和监管
问题。是的。

透明度的两个问题

如今,企业中大多数AI的用例都是由数据科学家开发的,然后被部署和用作黑匣子。缺乏对用于训练模型的数据,在开发解决方案时做出的假设,使用的算法以及如何合理选择的洞察力,最终使蠕虫病毒泛滥成灾。

模型可能会引起人们的注意而不是影响
或数据漂移。如果模型是根据一组数据训练的,并且该数据发生了变化
随着时间的流逝,人工智能解决方案所做的推论将不再正确。
一个极端的例子是开发基于AI的服装
使用历史客户偏好的在线零售网站的推荐引擎
以及来自点击流,社交媒体影响者和其他人的实时数据
资料来源。

如果模型是使用冬季数据说出来的
几个月内,夏季的建议将不适用。不带
了解解决方案的知识后,零售商可能会感到困惑
天气转暖时购买量下跌。

第二个数据问题是数据随时间变化。一个
基于AI的信用授权解决方案,使用来自
如果使用2020年的数据,2018年将产生不同的结果。许多人工智能
部署无法解决此变化的数据问题。它们是发达的
部署,并且保持不变。

组织越来越意识到这种模式
漂移问题。但是,同样,需要透明的方式来知道何时得出结果
可能会受到影响。

最后,可能存在最大的透明度问题:
偏压。不完全了解AI解决方案中的内容可能会导致偏差或
结果无效。例如,开发了基于AI的医学诊断算法
使用来自北美患者数据集的数据可能无法准确
用于苏丹的患者时进行评估。

最近,人工智能的偏见已经广泛传播(不良)媒体
覆盖范围。由于涉及人员,一个例子得到了广泛的报道。
去年,苹果推出了信用卡。有线电视新闻网
报道称,“技术企业家戴维·海因迈尔·汉森(Apple Heinmeier Hansson)写道,苹果
卡提供的信用额度是他妻子的二十倍,尽管他们有
共享资产,她的信用评分更高。”他对信用卡的看法
苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)支持偏见和歧视。他和
他的妻子也有类似的经历
体验卡。

高盛用苹果卡管理交易。
根据《彭博商业周刊》的说法:“没有证据表明银行,
决定谁获得Apple Card以及他们可以借多少钱,
故意歧视妇女。但这可能就是重点
给批评家。指导其贷款决策的复杂模型可能
无意间产生了不利于某些群体的结果。”再次,
偏见问题源于透明度。

法规在地平线上吗?

如果透明度和偏见问题导致对偏见的抱怨
或错误的预测,政府实体可能会介入并且可能
引入法规。

纽约金融服务部已经
在找
对苹果用户的性别歧视指控
卡,由高盛(Goldman Sachs)管理。和
一些美国参议员是
敦促医疗保健组织应对AI算法中的种族偏见。

如果企业不采用自己的最佳做法
在解决AI透明度和偏见问题时,他们可能没有选择
未来。

资讯来源:由0x资讯编译自RTINSIGHTS,版权归作者Salvatore Salamone所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢