当前位置:首页 >> 花泽冰

人工智能机器人会自行发展成见吗南雄【新闻】

2022-08-19 14:53:26  纠纠娱乐网

人工智能机器人会自行发展成见吗?

一项新的研究表明,显示出对他人的偏见并不需要很高的认知能力,并且很容易被人工智能机器展现出来。

卡迪夫大学和麻省理工学院的计算机科学和心理学专家表明,自动机器群体可能会表现出偏见通过简单地相互识别,复制和学习这种行为来。

偏见似乎是一种特定于人类的现象,需要人类认知才能形成对某个人或特定群体的看法或成见

尽管基于对公共记录和人类产生的其他数据的学习,某些类型的计算机算法已经表现出偏见,例如种族主义和性别歧视,但这项新工作证明了AI自身发展偏见群体的可能性。

新的发现已经发表在《科学报告》杂志上,该发现是基于计算机模拟的,即偏见的个体或虚拟代理如何组成一个小组并彼此互动。

在赠与游戏中,每个人都根据个人声誉和自己的捐赠策略来决定是否向自己组内或不同组内的某人捐赠对局外人。

随着游戏的发展和超级计算机的成千上万次模拟,每个人都开始通过复制其他人来学习新的策略,无论是在自己的团队中还是在整个人群中。

该研究的合著者,来自卡迪夫大学犯罪与安全研究所和计算机科学与信息学学院的罗杰·惠特克教授说:“通过成千上万次运行这些模拟,我们开始了解偏见的程度进化以及促进或阻碍它的条件。

“我们的模拟表明,偏见是自然的强大力量,通过进化,它很容易在虚拟人群中受到激励,从而损害了与他人的广泛联系。免受偏见群体的保护会无意中导致个人形成更多的偏见群体,从而导致如此分散的偏见很难扭转。”

这些发现涉及个人通过优先复制那些获得较高短期回报的人来更新其偏见水平,这意味着这些决定不一定需要高级的认知能力。

“自主机器是可行的有能力与歧视识别和复制其他人可以在将来容易受到损害的现象,我们在人群中看到,”惠特克教授继续。

“我们看到的许多AI开发都涉及自治和自我控制,这意味着设备的行为也受到周围其他设备的影响。车辆和物联网是最近的两个例子。我们的研究提供了理论上的见解,在其中进行了模拟代理定期要求其他人提供某种资源。”

该研究的另一个有趣发现是,在特定条件下,包括人口中存在更多不同的亚群,偏见更难掌握。

“拥有更多的亚种群,非偏见集团的联盟可以合作而不会被剥削。这也削弱了他们作为少数群体的地位,降低了对偏见的敏感性。然而,这也需要代理商对情况有较高处置倾向的情况。在小组之外进行互动。”惠特克教授总结道。

郑州下肢静脉曲张医院

西安经行口糜医院

重庆皲裂性湿疹医院

成都到哪里看白驳风

长沙外阴白斑病医院

相关资讯
友情链接