专家:政府必须介入,以防止邪恶,超级动力人工智能


比赛到底部

像Facebook和谷歌这样的科技公司,以及像五角大楼的DARPA或俄罗斯高级研究基金会这样的政府研究公司都试图创造出超级动力的人工智能,必须采取预防措施来防止超级智能人工智能破坏人类。

这是联合国大学教授WimNaudé在“对话”中撰写的一篇新论文的关键所在。 Naudé认为,政府需要介入,既要确保人工一般情报能够使公众受益,又要确保没有人会对人类释放恶意算法。

滑税

在这篇文章中,Naudé引用他从四月开始的研究,其中他调查了哪些政府政策可能对面对超人AI的社会最有利。

他也有一些政策建议。首先,政府应该提出购买不完善但仍然强大的算法的常规要求。 Naudé认为,通过创造第二名奖,竞争公司可能更有可能合作并分享他们的知识,而不是将其隐藏在锁定的门后。

副作用

但这只会阻止这种人工智能产生的财富中心化在顶端。如果算法本身被证明是恶意的,Naudé建议政府可以根据人工智能的友好程度对任何公司开发它进行征税。

“足够高的税率基本上意味着超级人工智能的国有化,”Naudé写道。 “这将极大地阻碍私营公司因为担心失去国家产品而偷工减料。”

阅读更多:奇点:政府如何能够阻止不友好,不可阻挡的超级AI的崛起(The Conversation)

关于危险AI的更多内容:邪恶AI研究应该发布吗?五位专家称重。

资讯来源:由0x资讯编译自FUTURISM,原文:https://futurism.com/the-byte/governments-prevent-evil-superpowered-ai。版权归作者所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢