内容简述: 本条例草案中"人工智能系统"(AI系统)的定义是使用附件一所列的一种或多种技术和方法开发的软件,并且能够针对人类定义的一组特定目标产生影响其互动环境的内容、预测、建议或决定等产出。
本条例草案提出了一些规定,管理人工智能系统的开发、销售和在欧洲联盟市场上的投放。考虑到人工智能系统带来的风险和挑战,这些规则仅限于保护人员的安全和基本权利的最低必要要求,而不会过度限制或阻碍技术开发或以其他方式不成比例地增加将人工智能解决方案投放市场的成本。本条例草案依人工智能系统的潜在风险程度而有所不同。
欧盟将禁止认定为对人们的安全、生计和权利构成明显威胁的人工智能系统。这包括操纵人类行为以规避某些用户自由意志的人工智能系统或应用(例如,使用声音辅助的玩具鼓励未成年人危险行为),以及允许政府“社会评分”的系统。这些禁令涵盖了一些危险系数高的做法,如通过潜意识技术来操纵他人,或利用儿童或残疾人等特定弱势群体的劣势,扭曲其行为,从而可能对他们或其他人造成心理或身体伤害。此外,原则上禁止为执法目的在公共无障碍空间"实时"使用远程生物识别系统。严格界定和规范特殊情况,例如,为搜寻失踪儿童、防止具体和迫在眉睫的恐怖主义威胁或侦查、定位、识别或起诉严重刑事犯罪的肇事者或嫌疑人而绝对必要的例外。在允许的情况下,此类使用须经司法机构或其他独立机构授权,并在时间、地理范围和检索数据库方面有适当限制。
高风险人工智能系统在进入欧盟市场之前,必须严格履行义务。
确定为高风险的人工智能系统包括本建议书附件中列出的人工智能技术,用于以下广泛领域:
•
实时和事后远程生物识别系统;
•
可能危及人民生命和健康的关键基础设施(如交通);
•
教育或职业培训,这可能决定一个人获得教育和专业课程的机会(例如,考试分数);
•
根据欧盟部门产品安全立法,受第三方合格评定的受监管产品的安全组件(例如,机器人辅助手术中的人工智能应用);
•
就业、工人管理和自营职业(例如,招聘程序的简历分类软件);
•
基本的私人和公共服务(例如,信用评分剥夺了人们获得贷款的机会);
•
可能干扰人民基本权利的执法(例如,评估证据的可靠性);
•
移民、庇护和边境管制管理(例如,核实旅行证件的真实性);
•
司法和民主进程(例如,将法律应用于一系列具体事实)。
高风险人工智能系统的相关要求:
•
充分的风险评估和缓解系统;
•
为系统提供高质量的数据集,以最大限度地降低风险和歧视性结果;
•
记录活动以确保结果的可追溯性;
•
提供有关该系统及其目的的所有必要信息的详细文件,供当局评估其遵守情况;
•
向用户提供清晰、充分的信息;
•
采取适当的人力监督措施,将风险降至最低;
•
高度的稳健性、安全性和准确性。
此类高风险人工智能系统的公共和私人供应商必须遵循合格评估程序,以证明这些系统符合上述要求,然后才能将这些系统投入欧盟市场或在欧盟使用。为了促进这一点,本条例草案包括了与欧洲标准化组织(CEN/CENELEC和ETSI)将根据欧盟委员会的授权采用的协调技术标准的未来协调和起草有关的规定。同时规定了对高风险人工智能系统的提供者和用户须承担可预测的、相应的、明确的义务,以确保在整个人工智能系统的生命周期内,保护基本权利现有法律的尊严。
具有特定透明度义务的人工智能系统:当使用聊天机器人等人工智能系统时,人们应该意识到他们正在与机器交互,这样他们就可以做出明智决定,选择继续或后退。如果人们接触到情绪识别和生物特征分类系统以及假货,他们也应该知晓。
最低风险:在遵守现行立法的前提下,该提案允许自由使用所有其他未被禁止、被定性为"高风险"或需要特定透明度义务的人工智能应用程序。绝大多数人工智能系统都属于这一类。条例草案没有在此进行干预,因为这些人工智能系统仅对人民的权利或安全构成最小风险或没有风险,但非高风险人工智能系统的提供者可以自愿遵守自愿行为守则,以证明其应用的可靠性。
在治理方面,欧盟委员会建议由国家主管市场监管机构监督新规则,而欧洲人工智能委员会得建立,将促进其实施,并推动人工智能标准的制定。此外,还建议采取具体措施来支持小规模供应商和用户以及监管沙盒,以促进负责任的创新。