公众号:小姨ai
本报记者 秦枭 北京报道
从去年年底由OpenAI研发的ChatGPT引发的AI浪潮,其发展速度超出了所有人的预期,在给人们带来惊喜之余,也衍生出数据泄露、电信诈骗、个人隐私风险等问题。为此,关于AI监管的讨论正在全球范围内升温。
近日,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》(以下简称《办法》)。此外,联合国安理会也在近日举行了一场主题为“人工智能给国际和平与安全带来的机遇与风险”的高级别公开会议。这是联合国安理会首次就人工智能问题举行会议。
多位业内人士在接受《中国经营报》记者采访时表示,生成式人工智能服务在监管方面还存在相关法律法规与标准体系不健全、缺乏多部门协同的自上而下的监管体系、监管技术手段落后等突出问题,各国政府和监管机构已开始采取措施加强监管,以确保公众利益和安全。随着《办法》的出台,标志着我国AI治理已经走在国际前列。
惊喜与问题同存
从ChatGPT模型连续迭代带来的技术震撼,到国内外科技巨头迅速涌入的“百模大战”, AI俨然成为当今科技的“必争之地”。与此同时,AI创业企业们进入新一轮“吸金”热潮。
天眼查发布2023年上半年人工智能产业投融资情况分析。从行业分布来看,前沿技术、机器人以及集成电路的融资事件数量位居前列,自动驾驶在这三者之后,也有20起相关的融资事件。
但是,AI在大热的同时,也在衍生出新的问题。浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林对记者表示,目前AI监管面临以下问题:其一,数据安全方面,利用生成式AI窥探个人隐私,甚至破坏商业机密和破坏国家安全,当AIGC掌握在不法分子手中的时候,数据安全形势会更加严峻;其二,生成式AI替代就业,生成式AI会影响一部分人,另一部分人将学会使用生成式AI,但一部分人在学习新事物方面存在瓶颈,所以要平衡好生成式AI和这部分人之间的关系;其三,生成式AI 存在知识产权保护的问题,我们说AI创作绘画的风格类似于某位画家,但AI绘画不曾支付版权费,这是不公平的,要在数据训练的源头通过数据确权来分配权益;其四,伦理问题,介于AI现在水平没到高智慧程度,这个可能会在未来探讨。
天使投资人、资深人工智能专家郭涛也认为,当前,生成式人工智能产业还处于发展的早期阶段,研发与应用的相关法律法规、标准体系和伦理规范等还不健全,存在隐私与数据保护风险、著作权侵权风险、深度伪造风险、失业加剧风险,以及歧视与偏见风险等潜在问题,制约行业长远健康发展,迫切需要对生成式人工智能服务加强规范管理,进一步细化明确相关监管要求,完善相关法律、法规和标准体系等。
随着问题的凸显,各国也把对于AI的监管提上日程。斯坦福大学发布的《2023年人工智能指数报告》中提到,对127个国家的立法记录调研的结果显示,包含“人工智能”的法案被通过成为法律的数量,从2016年的仅1个增长到2022年的37个。报告对81个国家2016年以来的人工智能法律法规记录的分析也同样表明,全球立法程序中提及人工智能的次数增加了近6.5倍。
欧盟与美国的监管差异
美国是这场AI风暴的中心。今年3月份,数千名人工智能领域的企业家、学者、高管发出了一封题为《暂停大型人工智能研究》的公开信,呼吁关注人工智能研发中产生的安全问题,并敦促各国政府及时介入人工智能的监管。
随后,微软、Adobe、IBM 、甲骨文等多家AI巨头组成的美国科技倡导组织“商业软件联盟”(BSA)公开发文呼吁在国家隐私立法基础上制定管理人工智能使用的规则。该声明向美国国会提出了四个明确的呼吁:一是美国国会应该明确要求公司何时必须评估人工智能的设计或影响,二是美国国会应该定义何为人工智能做出的“重大决定”,三是美国国会应该指定一个现有的联邦机构来审查公司是否遵守了规则,四是美国国会应该要求公司为高风险的人工智能制定风险管理计划。
而在近日,美国众议院网站显示,《国家人工智能委员会法案》已被提交。根据议员们提供的法案概要,拟建立的“国家AI委员会”,将确保通过监管减轻人工智能带来的风险和可能造成的危害,并在建立必要、长期的AI法规过程中起到主导作用。
对于美国关于AI的监管政策,百度法律研究中心主任陈晨称:“美国通过一些行政命令强调要用一种创新的方式监管人工智能,同时保护公民的隐私和自由。但是美国也强调,要考虑如何减少人工智能技术发展创新的阻碍,美国更多的是通过‘软法’来监管,不会用‘硬法’去强制性地干预产业发展。”
与美国还停留在“口头呼吁”阶段不同,6月14日,欧洲议会通过了一项名为《人工智能法案》(AI Act)的法律草案,该法案将对被视为该技术最危险的用途施加新的限制投票禁止实时远程生物识别技术,欧盟禁令意味着不能在公共场合实时人脸扫描;同时要求OpenAI和谷歌等公司必须进行风险评估,并披露更多用于创建程序的数据。不仅如此,《人工智能法案》将人工智能风险分为不可接受的风险、高风险、有限的风险和极小的风险四级,对应不同的监管要求。
实际上,欧洲地区是较早将AI监管提上日程的地区。早在2018年4月,欧盟便发布政策文件《欧盟人工智能》,提出要逐步建立适当的伦理和法律框架。2020年,《人工智能白皮书通往卓越和信任的欧洲路径》也指出,应构建基于风险的人工智能监管框架,通过为不同的企业划定风险等级避免过高的合规负担。
对此,轩睿基金总经理盖宏对记者表示,欧盟推动人工智能立法,有利于维护欧盟在数字主权和科技领域的领导地位,并通过立法抢占全球人工智能监管先机。但其本身具有局限性。相关条令并非针对特定人工智能应用领域,而是试图把所有人工智能都纳入监管范围,整体看起来像是为了立法而立法,执行效果或将大打折扣。
陈晨表示:“总体来看,从美国和欧盟对人工智能监管的差异可以看到,监管思路上美国更希望由市场决定,以市场为导向,更加注重效率;欧盟采用了预防的方法,在伤害出现之前先对其进行监管,更加注重安全。”
中国:监管政策已落地
与欧美国家相比,国内在AI治理方面已走在了世界前列。
从今年4月11日,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》,到7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局发布《生成式人工智能服务管理暂行办法》,仅仅用了3个月的时间,并且自2023年8月15日起施行。
《办法》明确了提供和使用生成式人工智能服务的总体要求,提出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。
与此同时,《办法》做出了一系列的规范和管理措施,例如要求服务提供者需要取得相应的资质和许可,并且需要遵守一系列的技术规范和安全标准等,这些规定确保了生成式人工智能服务的合规性和安全性,保护了用户的数据和隐私安全,可以减少人工智能带来的不良影响;另一方面,《办法》明确规定了生成式人工智能服务的范围和标准,以及相关责任和义务,这些规定可以指导企业、个人和监管机构在生成式人工智能服务方面进行规范操作,避免一些可能存在的法律和道德风险。
对此,盘和林表示,《办法》主要是从安全性角度出发,包括数据确权、数据隐私保护,以及内容上的合规性。这里内容合规是我国独有的需求,需要让AIGC和自媒体采取一样的尺度,防止非法内容传播。
深度研究院院长张孝荣表示,《办法》标志着我国AI治理已经走在国际前列,生成式AI需要认真学习,打磨技术,以便维护产业健康发展,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
公众号:小姨ai
暂无评论内容