来自英国卡迪夫大学和美国麻省理工学院的计算机科学和心理学专家发现,自主机器人可以通过识别、复制、学习其他机器人的行为产生偏见,某些种类的算法已经产生性别歧视和种族歧视。
歧视看似是人类社会中特有的、需要认知才能产生的现象。但是,某些类型的计算机算法已经从公开档案等人类资料中习得了性别歧视、种族歧视等偏见。最新的一项研究甚至发现,人工智能可以进化出不同的偏见群体。
为证实人工智能可以自己产生偏见,科学家用计算机模拟博弈。博弈中,每个个体都可以将钱送给自己所在的群体或其他群体,以测试每个个体的给予策略,观察其是否对其他群体有偏见。这一博弈由一台超级计算机模拟,其中包括上千个个体,每个个体都可以通过复制其他来自相同群体或不同群体的个体学习新的策略。
参与研究的卡迪夫大学计算机科学与信息学教授 Roger Whitaker 表示:" 通过成千上万次模拟,我们发现了偏见是如何演化的、哪些情况可以激化偏见、哪些情况可以减弱偏见。我们的研究表明,偏见是自然产生的、影响非常大的,它很容易被激励、损害大范围的连通性。来自同一偏见群体的保护可以非主观地引起更进一步的偏见,使整个群体四分五裂。这种广泛传播的偏见很难逆转。" 这些个体是通过复制那些有更高短期效益的个体使得偏见升级的,可见偏见并不需要高级认知能力。
在另一项关于性别的研究中,研究人员发现,微软、IBM和 Face++ 等的人脸识别服务中存在性别歧视和种族歧视。这些服务对于男性白人更加友好,而对于男性黑人和女性黑人错误率最高。微软在 21% 情况下无法识别黑人女性,而 IBM 和 Face++ 有 35% 情况无法识别。
【来源:新浪科技】