社会生产力对科学技术进步的迫切需求,在适当的情形下,催生出人工智能产业。
人工智能法学作为一门新兴学科,逐渐被法学理论所重视。笔者认为,在人工智能尚未产业化的当下,对于人工智能法学的要求应集中于基础性法律体系的构建(笔者将其称之为“人工智能发展与产业促进”而服务的法学学科发展阶段)。首当其冲的就是确定人工智能法学应当遵循的基本原则。笔者暂归纳出四项基本原则(说是基本原则,不如说是基本思路吧),愿抛砖引玉,陆续专门撰写文章完善下列四项基本原则:
1.不具有自主深度学习能力的弱人工智能机器人是从属于自然人、法人的“工具”,不具有享有法律权利、承担法律义务的主体资格,因弱人工智能机器人的活动产生的利益或责任应作明确规定,大体上遵循利益从约定、责任从法定的思路;
2.具有自主深度学习能力的强人工智能机器人可以在有益于人类物质和精神生活的前提之下,对其自主完成的智力成果享有象征意义上的著作权。换言之,任何人都可对其成果进行不损害国家和公共利益、不违背公序良俗的非营利性使用。
3.强人工智能机器人虽有自主深度学习能力,甚至因模仿人类思维而具备完善的思考能力乃至生存、民主意识,但仍不能以人类立法的方式赋予其法律承认的独立人格,即其人格仍从属于其研发者或实际使用人。强人工智能机器人无权享有独立的财产所有权,但因强人工智能机器人自主设计算法所作决策而产生的偶然性错误,导致各种形式的事故发生的,可在不挫伤强人工智能机器人研发积极性的前提之下,适当以公平责任、过错责任等归责方式进行免责认定。
4.人工智能机器人的存在意义应限定为丰富人类物质和精神生活,因此除举世公认的损害国家安全事由出现(如外敌侵略或因煽动等其他非法原因发生难以平复的反动叛乱等情况),非生产经营、日常生活所用的、由人工智能辅助人类操作或完全自主操作的的军用装备、杀伤性机器人等能为人类造成人身或财产威胁的人工智能设备等应被禁止生产(换言之,可以研发,并将相关成果作为国家机密予以保护)。
人类真正应当提防的,是强人工智能机器人因高度模仿人类思维模式而获得相应发展乃至再进化而产生生存、自救及民主等人格意识,进而与人类产生的矛盾和冲突。人类的计算能力客观上难以与强大的人工智能进行对抗,因此人工智能法学的发展的首要任务,应是为人类的物质和精神文明建设获得安全保障设计完善的底线性评判标准和相应的法律制度,在确保人类安全的前提之下,享受人工智能产业化为人类带来的巨大利益。