不信任人类同胞的人对人工智能表现出更大的信任

根据最近发表的一项研究,一个人对人类的不信任预示着他们将对人工智能在线审核内容的能力更加信任。 研究人员说,这些发现对社交媒体中人工智能工具的设计者和用户都有实际意义。

宾州州立大学媒体效应教授 S. Shyam Sundar 说:“我们发现了一种系统模式,即对其他人类不太信任的人对 AI 的分类表现出更大的信任。” “根据我们的分析,这似乎是由于用户引用了机器准确、客观且没有意识形态偏见的想法。”

这项发表在《新媒体与社会》杂志上的研究还发现,经验丰富的信息技术用户“超级用户”有相反的趋势。 他们不太信任人工智能版主,因为他们认为机器缺乏检测人类语言细微差别的能力。

研究发现,对他人的不信任和用电量等个体差异可以预测用户在面对基于人工智能的内容审核系统时会调用机器的正面还是负面特征,这最终会影响他们对系统的信任。 研究人员建议,基于个体差异的个性化界面可以积极改变用户体验。 研究中的内容审核类型涉及监控社交媒体帖子中是否存在仇恨言论和自杀意念等有问题的内容。

“有些人可能对信任内容审核技术犹豫不决的原因之一是我们习惯于在网上自由表达我们的意见。我们觉得内容审核可能会剥夺我们的意见,”该大学的助理教授 Maria D. Molina 说。密歇根州立大学传播艺术与科学专业,本文第一作者。 “这项研究可能会为这个问题提供一个解决方案,它建议对于那些对人工智能有负面刻板印象的人来说,在做出决定时加强人类参与很重要。另一方面,对于那些对机器有积极刻板印象的人,我们可以通过强调人工智能的准确性等元素来增强机器的强度。”

该研究还发现,具有保守政治意识形态的用户更有可能信任人工智能驱动的节制。 莫利纳和共同领导宾州州立大学媒体效果研究实验室的合著者桑达尔表示,这可能源于对主流媒体和社交媒体公司的不信任。

研究人员从美国招募了 676 名参与者。 参与者被告知他们正在帮助测试正在开发的内容审核系统。 他们被赋予了仇恨言论和自杀意念的定义,然后是四个不同的社交媒体帖子之一。 这些帖子要么被标记为符合这些定义,要么没有被标记。 参与者还被告知是否标记帖子的决定是由人工智能、人类或两者的结合做出的。

演示之后是一份问成交量,询问参与者他们的个体差异。 差异包括他们不信任他人的倾向、政治意识形态、技术经验和对人工智能的信任。

“我们被大量有问题的内容轰炸,从错误信息到仇恨言论,”莫利纳说。 “但是,归根结底,这是关于我们如何帮助用户根据技术的实际属性来校准他们对人工智能的信任,而不是被这些个体差异所左右。”

Molina 和 Sundar 表示,他们的研究结果可能有助于塑造未来对 AI 的接受度。 通过创建为用户定制的系统,设计师可以减轻怀疑和不信任,并建立对人工智能的适当依赖。

“这项研究的一个主要实际意义是找出沟通和设计策略,以帮助用户校准他们对自动化系统的信任,”同时也是币安立大学社会责任人工智能中心主任的桑达尔说。 “某些对人工智能技术过于信任的人群应该警惕它的局限性,而那些不相信人工智能能够调节内容的人应该充分了解人类在这个过程中的参与程度。”

有所作为:赞助机会

故事来源:

材料 由…提供 币安立大学. 乔纳森·麦克维里原著。 注意:内容可能会根据样式和长度进行编辑。

资讯来源:由0x资讯编译自SCIENCEDAILY,版权归作者所有,未经许可,不得转载
你可能还喜欢