对AI偏见的发问说明什么?
What does asking about AI bias mean?
-----AI未来走向与技术瓶颈
都世民(Du Shimin)
摘要:本文主要讨论AI偏见产生的原因?不是单纯的数据集的问题,与人工智能机器人的技术瓶颈有关。
AI技术偏见产生的原因?
2020-07-15,《科技日报》刊文:“谁才是让AI产生偏见的幕后推手?”半月谈网及诸多网站转载。
(http://www.banyuetan.org/kj/detail/20200715/1000200033136211594777664057316540_1.html)文中指出:人脸识别所导致的偏见问题一直倍受关注!这个问题对我国正在推广的人脸识别会带来什么影响?一项新技术投入大范围使用,若出错率超(5~10)%,对人口众多的国家产生的负面影响是相当严重的。
文中指出:1)美国麻省理工学院媒体实验室研究项目显示,人工智能识别浅色皮肤男性的平均错误率不超过1%,识别深色皮肤女性的平均错误率达35%。2)2018年图灵奖得主、AI领军人物杨立昆(Yann LeCun)在推特上指出,当数据有偏见时,机器学习系统就变得有偏见。3)现在还没有100%无偏见的数据集!对杨立昆这一说法产生争议。机器学习系统产生偏见是大数据集造成的吗?与技术模型、算法、人类观念不同、技术瓶颈等有无关联?这一争论由来已久,人脸识别偏见问题早就是热点话题。
我们小区每天进出楼门,都有人脸识别,如果戴上帽子,戴上有色眼镜,或者在不同光线的情况下,人脸识别会失效,无法进门。真让人哭笑不得,这样的人脸识别是数据集造成的吗?一个单位几万人,这个数据集不大,可是使用起来却出问题,到底问题出在哪里?出现偏见不能只归咎于数据,人工智能不能离开数据,问题不能都归到数据集上。AI学习过程应该与架构、数据、训练算法、环境条件等因素相关。其本身的缺陷和技术瓶颈,也是产生偏见的原因。
中锐网络人工智能产品总监叶亮说:“总体而言,偏见还是源于规则制定者。”笔者赞同这一说法。近期,国际多家机构相继宣布禁用人脸识别技术。这不无道理。影响技术投入使用,新技术不能够产生较大的错误率,就像使用的网络一样,如果不能保证网络的安全,一旦发生事故造成的后果不堪设想,特别是在天灾人祸发生的时候,必须确保使用的新技术万无一失。
在2018年夏天,英国媒体就报道过,由于人脸识别技术的误判,导致一名年轻黑人男性被误认为嫌疑犯,在公众场合被警察搜身。克服偏见需要人工智能技术做出什么改进?人工智能的偏见其实都是人类偏见的反映与放大,因此人们放下偏见才是最根本的解决方案。要想真正做到谈何容易?
2017-09-19 ,一篇报道,“谁才是AI大潮幕后的推手?”文中指出:数据的海量增长“,神经网络、深度学习算法的不断更新,越来越多的人工智能产品走入寻常生活。AI 能否完成人类历史上的颠覆式创新,开启人类新时代?60 余年来人们对这个话题一直争论不休。”目前 AI 算法不完美,一是算法训练模型只能针对特定领域,通用性差;二是这一代算法必须依赖于数据集。AI 推理、思考、联想等智力功能与人类智力相差甚远,目前,AI 的发展水平整体上只能算是处于“微智时代”。
有研究人员认为,人脸识别已经有从“读脸”到“读心”的发展趋势。人工智能的“读心”功能目前主要是通过情感计算实现。这一说法有些夸大其词,因为每一个人心理活动很难统一建模,找出全球所有人的喜怒哀乐与人脸数据之间的量化关系,现在根本做不到。从识别身份到识别表情,人脸识别技术需要更先进的计算模型建立人脸图像、视频与心理活动之间的关系。但目前机器人有智商无情商,达到高度和谐的人机共存仍然任重道远。能否实现拭目以待。
“人工智能基础研究要取得突破,很有可能需要做长期并且有争议的工作。”人工智能机器人的研究是在宏观层面,脑科学是在微纳层面研究。研究者们正从各种视角探索大脑运行机制,研究分析模式有多种,证实相当困难。宏观层面与微纳层面研究之间缺少褳接,不能相互匹配,不能混为一谈。
人工智能机器人的研究瓶颈’问题是什么?是情感与情商吗?算法夲身是”瓶颈”问题吗?
(https://tech.gmw.cn/2020-06/24/content_33937576.htm)
人工智能机器人的技术“瓶颈”
有专家认为,人工智能机器人的技术“瓶颈”是:“有智能没智慧,有智商没情商,会计算不会“算计”,有专才无通才”。瓶颈问题主要包括:
(1)数据瓶颈;
(2)泛化瓶颈;
(3)能耗瓶颈;
(4)语义鸿沟瓶颈;
(5)可解释性瓶颈;
(6)环境条件的变化;
(7)可靠性瓶颈。
解决这些技术瓶颈不是一朝一夕能实现的,需要长期的精心设计,不断改进,寻找突破技术瓶颈的方法,特别是在机器智能的问题上,人类本身的智能至今未明,机器的智能谈何容易!