欧盟人工智能法案,智能硬件出海的新规和挑战
根据EqualOcean的研究报告,欧洲市场对智能硬件产品的需求正在显著增长,预示着巨大的市场潜力。中国的领先智能家居和智能穿戴领域相关的企业,包括小米、华为、大疆创新、科沃斯、极米科技、石头科技等,正积极布局欧洲的主要市场。然而,随着市场需求的扩大,人们对智能硬件的安全性、合规性和风险管理的关注也同步上升。例如,家居设备或个人穿戴设备的内部传感器可能构成潜在的隐患,清扫机器人等主动收集家庭数据的产品涉及消费者个人隐私数据安全的问题。
为应对这些挑战,欧洲议会近期通过了人工智能法案,该法案进一步加强了对“高风险”人工智能系统和产品的监管,比如实时面部识别技术的隐私安全问题,以及可能诱使儿童产生危险行为的语音辅助儿童玩具等。《时代》周刊评论指出,欧盟的人工智能立法可能会成为全球标准,这对美国和中国的人工智能和科技企业将产生直接影响。因此,理解和遵守最新的法律法规,对于国内人工智能相关的企业扩展欧洲市场,至关重要。
欧盟人工智能法案摘要
2023年6月14日,欧洲议会以499票赞成、28票反对、93票弃权的投票结果,通过了《人工智能法案》(Artificial Intelligence Act, AI Act)。该法案旨在推动“值得信赖的人工智能系统”(Trustworthy AI Systems)的发展,并确保市场的正常运作。
监管范围
该法案的监管范围十分广泛。提供人工智能服务的主体,无论是开发、发行、还是仅仅作为经销商或中间授权方,都属于监管的对象。 具体规定如下:
在欧盟投放市场或使用人工智能系统的供应商,不论其设立地点是否在欧盟内;
设立在或位于欧盟的人工智能系统部署者;
人工智能系统未部署在欧盟,但其输出内容在欧盟内使用的供应商和部署者;
人工智能系统的进口商和分销商;
使用其产品和名称/商标在欧盟部署人工智能系统的产品制造商;
在欧盟设立的供应商的授权代表。
(不包括军事,国防,科研 或特定法律约束的相关行业)
监管框架
该法案明确了一个基于风险分析的统一监管框架,具体分为四类风险:不可接受的风险、高风险、有风险和最小风险。
不可接受的风险:1、歪曲自然人的行为,导致损書自然人的身体或心理;2、利用特定群体在年龄、身体健康、经济状况、社会地位等弱点,导致产生实质性影响或损書自然人的身体或心理;3、根据自然人的社会行为或性格,对自然人进行评估或分类,导致其受到不利对待;4、除特定情况外,在公开空间使用实时的远程生物识别系统。
高风险:1、远程生物识別系统; 2、关键基础设施; 3、教育或职业培训; 4、产品的安全零件; 5、就业、员工管理; 6、获得和亨受基本的私人和公共服务; 7、可能干涉人的基本权利的执法; 8、移民、庇护和边境控制管理;9、用于司法和民主程序的人工智能系統。
有风险指用户能够意识到的与人工智能的互动,并可能做出决定的内容。
最小风险指使用人工智能的游戏或垃圾邮件过滤器等。
监管措施
该法案对不同风险等级的人工智能产品和服务实施了不同的监管措施。被认定为不可接受风险的AI,法案严格禁止其使用,对违规者最高罚款可达上一财年全球营业额的6%;对于高风险AI,法案提出了全程风险管理措施(见下图);有限风险的人工智能产品需遵守公开透明原则,即AI系统的可追溯性和可解释性,同时让人类意识到他们与AI系统进行通信或交互,并及时告知用户该AI系统的能力和局限性以及受影响的人关于他们的权利;而对于风险最低的AI,法案并不进行干预。
人工智能法案的通过,标志着欧盟在人工智能监管方面取得了重要进展,同时也提升了全球市场对人工智能技术及其产品的安全性、合规性等方面的关注。瑞士算法观察(Algorithm Watch)组织负责人安吉拉·穆勒(Angela Müller)分析指出,欧盟制定的规则也将适用于欧盟之外国家的公司,只要企业计划在欧盟范围内提供他们的人工智能产品,就必须全面遵循欧盟的法律法规。
最后,无论是在欧洲还是在全球市场,消费者本身对于人工智能产品的隐私和安全问题都越来越重视。符合法规,关注风险管理,强调消费者权益保护,将会成为人工智能产品竞争力的重要部分。