违反《征求意见稿》要承担哪些责任?其中规定,“三法”等法律、行政法规没有规定的,由网信部门和有关主管部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。
袁立志对此表示,事后的责令暂停或终止服务是会对相关企业产生重大影响的监管措施。在风险可控的前提下,监管措施应尽量避免对行业发展产生抑制效果——毕竟人工智能是国家重点支持的产业,也是国际竞争的重要领域。
安全评估和算法备案成AIGC监管主要抓手
长久以来,网络实名制一直是我国基础的互联网管理方式。《征求意见稿》明确,提供生成式人工智能服务应当按照《网络安全法》规定,要求用户提供真实身份信息。
袁立志直言,该规定对应的就是《网络安全法》的第二十四条,即实名制要求。他分析,此处要求用户提供真实身份信息是指,人工智能产品使用者在进行用户注册时,用于注册的信息应为实名信息。
根据《网络安全法》第二十四条规定,网络运营者为用户办理网络接入、域名注册服务,办理固定电话、移动电话等入网手续,或者为用户提供信息发布、即时通讯等服务,在与用户签订协议或者确认提供服务时,应当要求用户提供真实身份信息。用户不提供真实身份信息的,网络运营者不得为其提供相关服务。
袁立志强调,实名制要求在多部相关法律法规中均有所体现,并不限于《网络安全法》第二十四条所列举的入网和即时通讯与信息发布等场景。“实务中的实名制要求会更广,所有的互联网信息服务都要求实名制。”
张凌寒补充道,今年1月起实施的《互联网信息服务深度合成管理规定》中也提到在《网络安全法》的要求下采取实名制,其考量是用户输入一定内容生成合成文本和音视频,也是一种信息发布行为。在生成式人工智能的场景下,用户提问、AI回答是否属于用户的信息发布行为还值得讨论。
为促进生成式人工智能技术健康发展和规范应用,《征求意见稿》还从事前对企业提出要求。具体而言,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
在张凌寒看来,安全评估、算法备案等一直都是我国进行信息服务管理的重要手段。在信息内容安全领域,《征求意见稿》并未为生成式人工智能创设很多新型的监管要求,其中多为对过去信息内容安全监管原则的强调,以及与以往监管体系的配套规定。我国在上述两个领域都已具备较为完整的规定和实践,当其应用于生成式人工智能时,更多需要关注的是企业是否能在安全评估中觉察到潜在风险,以及在发生风险时,其是否具备及时应对的能力。
“此前这两项制度(安全评估、算法备案)的执行力度有限,如今是试图做实它们成为AIGC监管的主要抓手。”袁立志补充道。
南都记者观察发现,《征求意见稿》中还多次出现了防止歧视的相关内容。如第十四条“在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视”,第十二条“提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成”,在生成式人工智能领域,为何反歧视这么重要?
张凌寒表示,在我国算法监管体系中,反歧视一直是一项重要的要求。以往立法是以消费者是否获得公平的算法决策结果作为合规要求,此次明确针对种族、国别、性别等歧视性内容提出要求,这较为少见。
“由数据或算法等原因造成的歧视比较隐蔽,对个人的基本权利会造成较大侵害,甚至影响社会公共利益。”袁立志在分析“公平与反歧视”在整个AI领域都备受重视的原因时说道。
在于洋看来,目前《征求意见稿》中的规定还体现出较强的原则性,相关部门应加快推动AI治理技术的研究开发。这一技术代表着AI治理水平,实际上和所谓大模型开发一样重要。“如果AI治理技术足够强大,那么未来在全球AI的市场竞争中会处于优势地位。”