科学家:人工智能可迅速发展自己的偏见

发布:cyqdesign 2018-09-10 14:02 阅读:2030
据英国《每日邮报》9月7日报道,来自英国卡迪夫大学和美国麻省理工学院的计算机科学和心理学专家发现,自主机器人可以通过识别、复制、学习其他机器人的行为产生偏见,某些种类的算法已经产生性别歧视和种族歧视。 X[~CLKH(  
/_a *C.a6  
歧视看似是人类社会中特有的、需要认知才能产生的现象。但是,某些类型的计算机算法已经从公开档案等人类资料中习得了性别歧视、种族歧视等偏见。最新的一项研究甚至发现,人工智能可以进化出不同的偏见群体。 ;MJ1Q  
,6S 8s  
为证实人工智能可以自己产生偏见,科学家用计算机模拟博弈。博弈中,每个个体都可以将钱送给自己所在的群体或其他群体,以测试每个个体的给予策略,观察其是否对其他群体有偏见。这一博弈由一台超级计算机模拟,其中包括上千个个体,每个个体都可以通过复制其他来自相同群体或不同群体的个体学习新的策略。 U.F65KaKF  
y4L9Cxvs  
参与研究的卡迪夫大学计算机科学与信息学教授Roger Whitaker表示:“通过成千上万次模拟,我们发现了偏见是如何演化的、哪些情况可以激化偏见、哪些情况可以减弱偏见。我们的研究表明,偏见是自然产生的、影响非常大的,它很容易被激励、损害大范围的连通性。来自同一偏见群体的保护可以非主观地引起更进一步的偏见,使整个群体四分五裂。这种广泛传播的偏见很难逆转。”这些个体是通过复制那些有更高短期效益的个体使得偏见升级的,可见偏见并不需要高级认知能力。 kZ9pgdI  
r*wKYb  
在另一项关于性别的研究中,研究人员发现,微软、IBM和Face++等的人脸识别服务中存在性别歧视和种族歧视。这些服务对于男性白人更加友好,而对于男性黑人和女性黑人错误率最高。微软在21%情况下无法识别黑人女性,而IBM和Face++有35%情况无法识别。
关键词: 人工智能
分享到:

最新评论

我要发表 我要评论
限 50000 字节
关于我们
网站介绍
免责声明
加入我们
赞助我们
服务项目
稿件投递
广告投放
人才招聘
团购天下
帮助中心
新手入门
发帖回帖
充值VIP
其它功能
站内工具
清除Cookies
无图版
手机浏览
网站统计
交流方式
联系邮箱:商务合作 站务处理
微信公众号:opticsky 微信号:cyqdesign
新浪微博:光行天下OPTICSKY
QQ号:9652202
主办方:成都光行天下科技有限公司
Copyright © 2005-2024 光行天下 蜀ICP备06003254号-1