8月1日,在欧盟官方发布《人工智能法案(Artificial Intelligence Act)》(以下简称《法案》)最终完整版本20天后,全球首部全面监管人工智能的法规于当地时间8月1日起正式生效。该《法案》旨在确保在欧盟开发和使用的人工智能是值得信赖的,并有保障措施保护人们的基本权利,同时在欧盟建立一个统一的人工智能内部市场,鼓励采用这项技术,并为创新和投资创造一个支持性的环境。《法案》基于欧盟的产品安全对人工智能提出了四类定义:一是最小风险,大多数AI系统,例如支持AI的推荐系统和垃圾邮件过滤器,都属于此类;二是特定的透明度风险:聊天机器人等人工智能系统必须向用户清楚地披露他们正在与机器进行交互。三是高风险:被确定为高风险的人工智能系统将被要求遵守严格的要求,包括风险缓解系统、高质量的数据集、活动记录与详细文档等等;四是不可接受的风险,被认为对人们基本权利构成明显威胁的人工智能系统将被禁止,这包括操纵人类行为以规避用户自由意志的人工智能系统或应用程序。《法案》规定,对违反被禁止的人工智能应用程序的罚款可能高达全球年营业额的7%,对违反其他义务的罚款最高可达3%,对提供错误信息的罚款最高可达1.5%。该《法案》中的所有条款将在两年内全面适用,但其中一些将会更早实施。