热点聚焦:AI监管山雨欲来?欧洲有分歧美国在观望,印度不管,OpenAI发声明
印度政府当地时间4月5日表示,不打算监管人工智能的发展,认为该行业对该国来说是一个“重要和战略性”的领域。
(资料图片)
最近几天,众多声音呼吁加强对人工智能的审查。意大利政府3月31日对ChatGPT实施了临时禁令,理由是担心它违反了欧盟的《通用数据保护条例》(GDPR),此举引发欧洲多国开始探讨是否对生成式人工智能展开监管措施。当地时间4月4日,加拿大隐私专员办公室(OPC)宣布对ChatGPT的开发机构OpenAI展开调查,涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。
当地时间4月5日,面对一系列监管反弹,OpenAI发布声明《我们对人工智能安全的方法》,称“确保人工智能系统安全构建、部署和使用对我们的使命至关重要”。
印度暂不考虑立法或监管人工智能
印度电子和信息技术部在一份书面答复中称,该部门已经评估了与人工智能相关的道德问题和偏见与歧视风险,正在实施必要政策和基础设施措施,以在该国培育一个强大的人工智能部门,政府没有考虑制定法律或监管人工智能的发展。
印度电子和信息技术部认为,人工智能的扩展将对印度的创业和商业发展产生“动力效应(kinetic effect)”。“人工智能是数字经济和创新生态系统的动力提供者。政府正在利用人工智能的潜力,通过数字公共平台提供以公民为中心的个性化和互动服务。”
这份文件也指出,由于决策中的偏见和歧视、侵犯隐私、人工智能系统缺乏透明度以及伤害责任界定等问题,人工智能存在道德问题和风险。印度2018年6月发布的《国家人工智能战略》(NSAI)强调了这些担忧。为了解决与人工智能相关的道德问题和潜在风险,各中央和邦政府部门和机构已开始努力标准化负责任的人工智能开发,使用和促进最佳实践的采用。
《国家人工智能战略》提议为研究和采用人工智能开发一个生态系统,即#AI for ALL。为了使印度成为人工智能领域的全球领导者,印度电子和信息技术部已经实施了“国家人工智能计划”,旨在建立一个综合计划,利用变革性技术来促进包容、创新和采用以产生社会影响。
尽管美国和许多发达国家市场对人工智能的兴趣急剧上升,但印度进入该领域的初创企业数量有限。印度的战略举措可能鼓励有才华的人探索机会。
欧美情况复杂
上周,包括特斯拉首席执行官埃隆·马斯克和苹果公司联合创始人史蒂夫·沃兹尼亚克在内的上千人签署一封公开信,敦促所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。
3月31日,意大利个人数据保护局宣布从即日起禁止使用ChatGPT,限制OpenAI处理意大利用户信息,并开始立案调查。意大利个人数据保护局认为,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。而该平台没有就收集处理用户信息进行告知,且缺乏大量收集和存储个人信息的法律依据。同时,该机构还指责,尽管根据OpenAI的条款声称该服务面对13岁以上的用户,但并没有使用任何过滤机制来验证用户的年龄。
在意大利暂时禁止ChatGPT后,其他欧洲国家也开始研究是否需要更严厉措施来控制聊天机器人,以及是否要协调这种行动。
虽然欧洲议员对“欧盟人工智能法”的内容和范围存在分歧,但一些监管机构发现,现有的工具,如让用户控制其个人信息的《通用数据保护条例》可以适用于迅速崛起的生成式人工智能公司类别。
法国和爱尔兰的隐私监管机构已经与意大利的同行联系,以了解更多关于禁令的依据。德国数据保护专员告诉《商报》,德国可能会跟随意大利的脚步,出于对数据安全的考虑禁止ChatGPT。
“我们正在跟进意大利监管机构。”爱尔兰数据保护专员的发言人说,“我们将与欧盟所有的数据保护机构就此事进行协调。”
瑞典的隐私监管机构则表示没有计划禁止ChatGPT,也没有与意大利的监管机构进行接触。西班牙的监管机构表示,它没有收到任何关于ChatGPT的投诉,但不排除未来会进行调查。
虽然隐私监管专员赞成更多的监管,但政府却更加宽松。意大利兼基础设施与可持续交通部长马泰奥·萨尔维尼批评了本国监管机构的决定,称其反应过度,德国政府发言人表示没有必要禁止ChatGPT。
一位消息人士说,意大利当局上周的举动旨在与OpenAI开始对话,以解决在ChatGPT遵守欧盟数据保护规则方面提出的问题,而不是禁止该工具。OpenAI在欧盟没有办事机构。
在北美,加拿大隐私专员办公室(OPC)宣布对OpenAI展开调查。该机构的一位隐私专员表示,人工智能技术及其对隐私的影响是OPC的优先事项,“我们需要跟上快速发展的技术并保持领先,这是我作为隐私专员重点关注的领域之一。”
美国总统拜登当地时间4月4日表示,人工智能是否危险还有待观察,但科技公司有责任确保其产品在公开之前安全。据《纽约时报》上个月报道,虽然一些美国立法者对人工智能表示担忧,但很少有人积极寻求监管。
OpenAI正在研究儿童验证选项
可能是为了回应这些监管风声,OpenAI当地时间4月5日发布声明,称OpenAI致力于保持强大的人工智能安全且广泛有益。
这份声明称,“在发布任何新系统之前,我们会进行严格的测试,聘请外部专家提供反馈,努力通过人工反馈强化学习等技术来改进模型的行为,并建立广泛的安全和监控系统。例如,在我们的最新型号GPT-4完成培训后,我们花了6个多月的时间在整个组织中努力,在公开发布之前使其更安全、更一致。我们认为,强大的人工智能系统应该接受严格的安全评估。需要监管以确保采用此类做法,我们与政府就此类监管的最佳形式积极合作。”
OpenAI承认,尽管他们努力在部署前预防可预见的风险,但在实验室里能学到的东西是有限的。所以他们认为,随着时间的推移,从现实世界的使用中学习是创建和发布越来越安全的人工智能系统的关键组成部分。“我们通过自己的服务和API提供我们最强大的模型,以便开发人员可以直接将这项技术构建到他们的应用程序中。这使我们能够监测滥用并采取行动,并不断制定缓解措施,以应对人们滥用我们系统的真实方式——而不仅仅是关于滥用可能是什么样子的理论。”
“至关重要的是,我们认为社会必须有时间更新和适应越来越强大的人工智能,每个受这项技术影响的人都应该在人工智能如何进一步发展方面拥有重要的发言权。迭代部署帮助我们让各种利益相关者更有效地参与到关于采用人工智能技术的对话中,而不是他们没有这些工具的第一手经验。”声明前调。
OpenAI表示,其安全工作的一个关键重点是保护儿童,要求必须年满18周岁,或年满13周岁但经父母批准才能使用其人工智能工具,并正在研究验证选项。“当用户试图将儿童性虐待材料上传到我们的图像工具时,我们会将其阻止并报告给国家失踪和受剥削儿童中心。”声明称。
在作为争议焦点的隐私方面,OpenAI称,虽然他们采用的一些培训数据包括公共互联网上提供的个人信息,但他们希望模型了解世界,而不是个人。因此,他们努力在可行的情况下从培训数据集中删除个人信息,微调模型以拒绝对个人信息的请求,并回应个人从系统中删除其信息的请求。
OpenAI最后表示,“虽然我们等了6个多月才部署GPT-4,以便更好地了解其功能、好处和风险,但有时可能需要花费更长时间来提高人工智能系统的安全性。因此,政策制定者和人工智能提供商需要确保人工智能的开发和部署在全球范围内得到有效管理,这样就不会有人为了取得进展‘偷工减料’。”
编辑:林郑宏
声明:新华财经为新华社承建的国家金融信息平台。任何情况下,本平台所发布的信息均不构成投资建议。