快好知 kuaihz

拒绝不公平!某校研究人员脑洞大开致力完善人工智能

  【CNMO新闻】随着人工智能的逐渐升级,它开始能够处理复杂任务了,人们对人工智能的信任度直线飙升。但有些研究表明,人工智能算法还是会存在对性别和种族的偏见,这也引发了人们对其在关键领域使用的担忧。

  波士顿大学科学家的最近表明示正试图建立一个用于检测和减轻自动决策中的问题行为框架。波大的大部分工作都建立在记录和减轻算法偏差的基础之上,他们致力研究如何减少自动化系统对不同人群的影响,以及他们是否能平等地对待这些人群。对于他们的挑战就是评估AI公平性的规则和指标。在他们的研究中,波士顿大学的科学家使用了2016年著名的ProPublica对COMPAS的调查数据进行测试,结果显示COMPAS对非裔美国表现出偏见。

  波士顿大学的研究人员开发了不同的方法来评估和处理风险得分,这可以帮助减少误报,并对不同的人群显示出更多的公平性。他们技术的第一部分涉及为不同人群分别配置决策者和分类器,第二部分是改变自动决策者。在他们开发的技术中,他们允许处理算法引入不确定性。当决策者系统将一个案例标记为不确定时,它将经历一个不同的决策过程,这个决策过程可以是手动的,也可以由不同的自动化系统来处理。

本站资源来自互联网,仅供学习,如有侵权,请通知删除,敬请谅解!
搜索建议:大开  大开词条  某校  某校词条  人工智能  人工智能词条  研究人员  研究人员词条  绝不  绝不词条