越来越多的人已经意识到:技术对于创造一个没有偏见的世界,是非常有潜力的。
试想一个性别平等的社会:女人不是生孩子、养孩子的工具,男人不是传统思想上的统治者。人们在这个平等的社会中,扮演的角色是和他们的智慧和兴趣一致的,而不是由性别、根深蒂固的狭隘观点驱使的。
这样的社会目前还不存在。几年前,Malala Yousafzai这位巴基斯坦的、以争取女性教育而闻名的女子,还因为想要争取自己的教育而几乎失去了生命!她的故事并不特殊,女性为了进入主流的声音,已经奋斗了数百年了。
是的,对待性别平等这个问题,部分国家已经比较先进和发达了。但是,即使在最先进的环境中,深刻的偏差还是存在的。那么,有没有什么方法能重新设计一些由结果驱动的社会规范,而不是由固有的人类偏见驱使的社会规范呢?
人工智能也许就能打破数千年来的、根深蒂固的社会偏见。现在的技术,可以创造一种使用深度学习和数据驱动的技术,来纠正刻板印象的机制吗?
深度学习的软件,试图模仿人脑的大脑活动,在大脑皮层发生思考。这个软件学习识别声音、图像和其他数据。Ray Kurzweil通过软件技术,写了一本名为《如何创造心灵》的书。深度学习的目的是在机器层面重建人类智慧,然而,这种学习的结果取决于软件的训练程度,有偏见的训练会导致偏倚的结果。
继续说我们的这个实验,让我们来看看一个简单的工作场所中的例子:在会议室,出现了一些性别歧视的言论。
我们想要的结果是:有人举起手来,并阻止这样的言论。在这个简单的例子中,期望的结果在很大程度上取决于两个主要的假设:
会议室中至少有一位女性 ;
公司的文化氛围是能让她自由地表达她的观点。
如果这种情况是由人工智能技术的机器人处理,那么机器人必须对基本假设进行训练。不良的训练会导致不佳的结果。当机器人接收到性别歧视的输入时,它需要了解上下文,运用透视图,然后进行相应的操作。如果机器人没有被编入女性的观点,那么它就没法达到我们预期的结果。
技术公司的环境中,人工智能算法经过培训和测试,因为女性任职人数不足,缺乏对这种偏见的认识。计算机专业毕业的女性只有大约16%,再加上那些根深蒂固的文化和工作态度,对偏见的认识就更加不足了。
幸运的是,与人类的偏见不同,人工智能的偏差,能通过重新编程机器人的软件来更正。为了排除偏见,这些行为应该根据“平等、公平”的原则来分类。就看我们如何训练和测试我们的数据算法、增加实现这种愿景的可能性了。未来,我们的算法,能在性别和文化的框架中,处理数据、纠正机器人的行为、模仿理想的人类语言和观念!
也许在不久的将来,人工智能会成为我们生活中无处不在的东西,深入保健、行为经济学、政治等多种多样的领域。为了达到这样的未来,我们也需要各界人士的帮助,不止是程序员,还有从事医疗保健、人类学、经济学、金融等方面的专业人士。
越来越多的人已经意识到:技术对于创造一个没有偏见的世界,是非常有潜力的。正如Malala倡导“女孩应该接受平等的教育”一样,将会有更多的倡导者会为之奋斗,建造一个性别平等的社会。