研究表明,AI可以独立和自愿发展一个社会,并构成自己的习俗和习俗

众议院于5月18日报告了这一点,伦敦城市学院和哥本哈根信息技术大学发现,当AI可以自愿形成像人类这样的社会习俗而不参与世界以外的社会习俗。在实验中,科学家将全球当前流行的AI代理人放在分散的交流环境中,以模仿该小组与人类社会互动的场景。他们将AI模型分为各种尺寸的组,分别从24到200。通过长期的互动观察,这些AI模型可以自愿形成有关社会行为和习俗的共同协议,所有这些模型都在没有任何中央协调和预定政策的情况下实现了所有这些协议。相关研究结果于5月14日发表在《科学》杂志上。现实中的系统将越来越多地参与多方联系。我们的实验无法从这些模型中获得,可以通过行为来实现。协议,该群体无法从个人行为中获得。随机配对的AI代理需要从候选人池中选择相同的“名称”(字母或字符串),以获得奖励。如果选择不平衡 - 等于平等,则将受到惩罚,并且选择另一方的结果的结果将被表达。尽管每个代理商都有自己的最新联系记录,并且不了解该小组的整体情况,但它仍然可以自愿构成“不可思议的规则”来共享命名标准。 “每个联系人都是两个试图达成共识的过程的过程。每个联系人都是一对一的尝试,达成了'姓名'协议而没有全球视角。”他认为这就像“垃圾邮件”一词的诞生。没有人正式定义所谓的“垃圾邮件”,但其概念逐渐获得了普遍的认可Ople与Bawat One互动,并反复接触。此外,研究小组注意到,自然产生的集体偏见不能被监测回个人因素。这些AI模型在交流过程中显示出类似于人类社会的行为模式。他们将调整和组织共同的行为标准,甚至具有差异和误解,但最终他们达成共识,产生一种“道德”或类似于发展人类文化底部的习俗。但是,AI群体自愿形成的“道德”和习俗无法更改。实验发现,当出现一小群AI公司模型时,它们将迅速改变原始小组协议并制定新的政策。随着人工智能技术的快速发展,更多的和Moreai模型应用于各种组织。领域,行为和决策将对人类社会产生深远的影响。科学家说,对“社会”宪章的研究和理解人工智能社区的精神学可以帮助人们更好地理解和控制人工智能发展的方向,并确保AI技术始终为人类的利益服务,而不是统治着人类的未来。
请尊重我们的辛苦付出,未经允许,请不要转载必威betway官网入口_必威betway88欢迎你的文章!

下一篇:没有了