虽然人工智能正在蓬勃发展,但各大公司高层仍然对该技术采取谨慎态度。一个值得关注的领域就是人工智能的道德规范和其潜在的商业价值,70%的公司甚至对从事该技术工作的IT人员进行了特殊的道德培训。
最近,福布斯与SAS软件研究所,埃森哲和英特尔合作调查了305家企业对人工智能道德,信心和商业价值的态度。仅仅是根据技术人员,51%的人表示基于人工智能的技术部署对其公司运营的影响已经“成功”或“非常成功。
该调查报告将人工智能定义为“通过学习来自动模拟人工任务的培训系统科学”。人工智能的采用者表示,如今的道德约束相对较强,63%的人肯定他们“有一个审查人工智能使用的道德委员会”,70%表示他们“为其技术人员提供道德培训”。该报告表示,通过人工智能部署而取得了真正成功的公司中,92%表示他们为技术专家进行道德培训,而在部署人工智能方面尚未取得真正成功公司的提供率则为48%。
尽管如此,正如托马斯·达文波特(Thomas Davenport)在当前的麻省理工学院斯隆管理评论中所说,人工智能需要更高的透明度。他建议人工智能实施者谨慎行事:“无论是使用内部还是外部认知技术,都需要面面俱到。
关键在于人工智能的发展需要公开化、透明化,达文波特解释道:“在引入新功能时,将其作为测试版产品推出,并传达该技术的使用目标,不要取消解决员工或客户问题的替代方案,也就是说不能取消人类的作用。随着时间的推移,随着技术的成熟和人工智能解决方案的改善,有关情况会变得越来越好。”
达文波特甚至提出了第三方人工智能算法认证法,就像“食品药品监督管理局(FDA)认证药物的功效,审核员认证财务流程,保险商实验室认证产品的安全性”一样。现在是时候独立认证“AI算法的可靠性,可复制性和准确性”,他敦促说。
总而言之,人工智能成功与否,取决于利益相关者的信任程度。福布斯和SAS,埃森哲,英特尔的联合调查结果表明:“企业和政府领导人会这样做,但他们中的许多人理所当然地担心他们的员工对人工智能缺乏信任,这体现在人工智能对其公司影响的担忧上。甚至有迹象表明,其中一些领导人对人工智能产出的程度存在疑问。信任对于人工智能的发展可能比任何技术和进步都要有用。”
对人工智能的信任“需要教育,透明化,明确的道德准则,以及耐心”。