“有道德”的AI,欧盟发布AI产品7大原则

发布日期:2019-04-10  浏览次数:400
    人工智能系统必须是负责任的、可解释的、公正的。

    当地时间4月8日,欧盟委员会发布一份人工智能道德准则,该准则由2018年12月公布的人工智能道德准则草案演变而来,提出了实现可信赖人工智能的七个要素,要求不得使用公民个人资料做出伤害或歧视他们的行为。

    同时,欧盟委员会宣布启动人工智能道德准则的试行阶段,邀请工业界、研究机构和政府机构对人工智能道德准则进行测试和补充。

    这份人工智能道德准则提出了实现可信赖人工智能的七个要素,分别是:




    1.人的能动性和监督:人工智能系统应通过支持人的能动性和基本权利以实现公平社会,而不是减少、限制或错误地指导人类自治。

    2.稳健性和安全性:值得信赖的人工智能要求算法足够安全、可靠和稳健,以处理人工智能系统所有生命周期阶段的错误或不一致。

    3.隐私和数据管理:公民应该完全控制自己的数据,同时与之相关的数据不会被用来伤害或歧视他们。

    4.透明度:应确保人工智能系统的可追溯性。

    5.多样性、非歧视性和公平性:人工智能系统应考虑人类能力、技能和要求的总体范围,并确保可接近性。

    6.社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。

    7.问责:应建立机制,确保对人工智能系统及其成果负责和问责。




    对于这份人工智能道德准则,欧盟委员会负责数字化单一市场的副主席安德鲁斯·安西(Andrus Ansip)表示欢迎,他认为:“人工智能的伦理并不是一个奢侈特征或附加功能。只有有了信任,我们的社会才能充分受益于技术。有道德的人工智能是一个双赢的主张,可以成为欧洲的竞争优势:成为以人为中心的人工智能的领导者,让人们可以信任。”


    欧盟委员会表示,其目前正在采取三步行动以促进可信赖的人工智能健康发展:制定值得信赖的人工智能的关键要求,启动利益相关者的大规模试点阶段,为以人为中心的人工智能建立国际共识。

    欧盟委员会希望将上述人工智能伦理方法带到全球舞台。为此,欧盟委员会表示,将与日本、加拿大和新加坡等开展合作,试行阶段也将涉及来自其他国家和国际组织的公司。

    在试行阶段之后,到2020年初,欧盟人工智能高级别专家组将根据收到的反馈审查评估清单,并根据评估结果并提出下一步行动。

    此外,为了确保人工智能的道德发展,欧盟委员会表示,将在2019年秋季之前启动一套人工智能研究卓越中心网络;开始建立数字创新中心网络;与欧盟成员国和利益相关者一起,开始讨论制定数据共享模型。

    上述人工智能道德准则由欧盟人工智能高级别专家组(AI HLEG)起草。

    2018年,52位代表学术界、工业界和民间社会的独立专家受欧盟委员会任命,成立了欧盟人工智能高级别专家组,负责撰写人工智能道德准则并为欧盟提供政策和投资建议。

    2018年12月18日,欧盟人工智能高级别专家组向社会发布了人工智能道德准则草案(Draft Ethics Guidelines For Trustworthy AI,以下简称草案),该草案当时被视为是欧洲“可信赖人工智能”的讨论起点。

    草案为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。

    12月发布的草案还提出了一份可信赖的人工智能评估表,从责任、数据治理、为所有人设计、管理AI自治、非歧视、尊重隐私、尊重(和加强)人类自主权、稳健性、安全性、透明度共10个维度列举了可信赖人工智能的相关要求。

    近年来,欧盟一再表示希望成为道德AI的领导者。对此,美国科技媒体《边缘》(The Verge)评论称,这在一定程度上是由目前的环境造成的,在涉及投资和尖端研究时,欧盟无法与美国和中国竞争,因此选择道德是塑造技术未来的最佳选择。

    一直以来,欧盟都很关注AI伦理的问题,从《欧盟人工智能》到《人工智能道德准则》,欧盟虽然在AI技术上没有先发制人,但在“以人为本”方面显然走在了前列。





    网友们怎么看

    AI的迅猛发展到底会不会给人类带来机器人末日,其实一直是许多人心里的隐忧。在追求AI的安全性方面,无论是研究者还是普通人都没有停止过关注。不过对于欧盟提出的这7大原则,也不是人人都买账的。

    比如就有网友提出,凭啥AI话语权一定要不如人类,它要是就比人类强呢?

    也有人觉得关于透明度的要求不太现实,神经网络本来就是一个黑盒子。

    不过真理总是越辩越明的,积极反思并公布类似指南的正面意义还是得到了网友们的肯定,只是AI伦理显然不是一个文件两个文件的事儿。我们受益于技术,我们也忧虑技术的发展方向,在这个方向上的探索或许还有很长的路要走。

    “有道德的AI”是欧盟理想中的双赢局面,你又是怎么看的呢?

文章转自:“量子位”