2019年4月8日,欧盟委员会发布了一份人工智能道德准则。这份道德准则是由欧盟人工智能高级专家组起草的。这个专家组在2018年成立,由52位学术界、工业界和民间社会独立专家构成。他们的工作就是撰写人工智能道德准则,以及给欧盟提供人工智能领域的政策和投资建议。
这份新的人工智能道德准则提出,可信赖的人工智能,需要具备七个要素。分别是:
1. 确保人的能动性和监督性。人工智能系统应该支持人的能动性和基本权利,而不是减少、限制或错误地指导人类的自我治理。
2. 稳健性和安全性,人工智能的算法要足够安全、可靠和稳健。
3. 在隐私和数据管理上,人类应该完全控制自己的数据,跟个人相关的数据,不能被用来伤害或者歧视他们。
4. 要有透明度,人工智能系统应该具备可追溯性。
5. 人工智能系统应该考虑到人类能力和技能要求的范围,要做到多样性、非歧视性和公平性。
6. 人工智能系统应该有助于社会的可持续性,并且担负生态责任。
7. 人工智能系统应该有相应的问责机制,需要对它造成的后果承担责任。
欧盟官员的态度是,人工智能伦理,不应该是一个奢侈特征或者附件功能,因为只有人们对技术信任,社会才能充分受益于技术。接下来,欧盟希望通过三个步骤来促进可信赖人工智能的发展,分别是:制定出关键要求;启动大规模试点;以及就“以人为中心的人工智能”建立国际共识。
美国科技媒体The Verge曾经评论说,欧盟希望成为人工智能道德领域的领导者,某种程度上是因为,欧盟在人工智能的投资和研发上,已经没有办法跟美国和中国竞争。因此,他们选择通过道德来塑造技术的未来。
以上就是欧盟委员会提出的,可信赖人工智能的七个要素。由于无法在投资和技术上同中美竞争,欧盟选择通过道德来影响人工智能技术的未来。