FCA前高管表示银行技术可能导致歧视

据《卫报》报道,前城市监管机构称,银行技术的进步使弱势客户面临歧视的风险。

FCA担心某些保险公司会种族地描述某些客户,他们购买了额外的数据来设定价格。

金融行为监管局(FCA)的前董事会成员Mick McAteer告诉该出版物,贷方和保险公司正在使用工具来更准确地识别“无利可图”或成本高昂的客户,从而增加了某些社会阶层被排斥的风险。

在用于为新Apple Card设置信用额度的算法引发性别歧视指控之后,这个问题引起了新的关注。科技企业家戴维·海涅迈尔·汉森(David Heinemeier Hansson)指出,他得到的信用比他妻子高20倍。

建议阅读:苹果卡发卡机构在对性别歧视信用检查提出索赔后进行了调查

苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)表示,他和他的妻子拥有全部相同的资产,他们在高盛(Goldman Sachs)运行的算法上也遇到了类似的问题,该算法正在接受美国监管机构的正式调查。

McAteer说:“每个人都对金融科技和开放银行以及所有这些新技术感到非常兴奋,但是事实是……这实际上会使更多的人被排除在金融体系之外。”

“实际上,技术和大数据的使用使银行–以及保险公司–能够更准确地确定哪些客户可以盈利,哪些客户没有利润,(以及)哪些客户需要维持更高的成本。”

金融公司已经在一定程度上区分了客户,从而导致信用卡和质押贷款等产品的利率有所不同,他认为这可能会加剧偏差。

“许多商业模式都是围绕具有平均收入的标准男性建立的,具有某些可预测的收入增长模式。那些表现出不同行为的人最终有可能受到歧视。”现任金融普惠中心智囊团负责人的麦卡特尔(McAteer)说。

在英国,公司不允许根据性别,种族或身体能力对客户进行细分,但是根据对数据的技术分析(例如消费习惯和收入)来识别客户变得更加容易。

阅读更多:AI:强大的力量吗?

“这项技术的全部目的是允许对人们的行为进行非常非常精确的剖析。一些公司将其用于良好目的,而另一些则不会。”他补充道。

去年,FCA提出了一些担忧,即某些保险公司正在种族歧视某些客户,他们购买了额外的数据来设定价格。

在监管机构表示数据包含可以识别种族或族裔的信息之后,一些公司决定取消使用该数据。但是其他人则辩护说,他们的数据挖矿是围绕定价的“实现合法目标的适当手段”。

McAteer补充说:“我们非常担心技术和大数据的增长和使用的不利影响。” “我们认为,除非监管机构限制使用它,否则它将导致更多的排斥。”

英国金融科技游说集团Innovate Finance的首席执行官夏洛特·克罗斯威尔(Charlotte Crosswell)指出,多样化的雇用方式将有助于解决金融技术带来的歧视。 “在利用人工智能的竞赛中,我们必须确保在设置算法时不会因性别和社会背景而偏向消费者。因此,从从事工程设计的人员到面向客户的角色以及领导团队中的所有公司,各级人员都必须实现多元化。”

针对Apple Card的争议,高盛(Goldman Sachs)指出,其所有信贷申请都是根据收入和信誉度因素(例如个人信贷得分和债务水平)进行评估的。基于这些因素,两个家庭成员可能会收到明显不同的信贷决定。在任何情况下,我们都不会也不会根据性别等因素做出决定。”

资讯来源:由0x资讯编译自BACKINGTECH。版权归作者Sharon Kimathi所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢