AI观察:意大利首禁ChatGPT拟开2000万欧元罚单,AI开发狂飙应否踩刹车?

2023年4月5日,ChatGPT官网停止Plus付费项目的购买,原因是“需求量过大”,不过OpenAI公司应对迅速并在翌日又开启了购买通道。此现象彰显由ChatGPT引领的生成式人工智能风潮正在商业化和资本市场领域所向披靡。

伴随ChatGPT商业化“狂飙”,反对它的民间声浪和政府监管力量随之加大。3月31日,意大利宣布禁用ChatGPT,因为其违反欧盟《通用数据保护条例》(GDPR)。

人工智能的发展正在经历拷问:人工智能本次崛起,是为所有行业的发展提供了加速引擎,还是将导致人类社会的毁灭?

当然,更多人认为,前者是过于乐观的资本泡沫,后者是不切实际的推测性恐慌。

本文拟从近期全球正在发生的政府监管和民间反对动作予以分析,帮助我们思考人工智能开发的边界究竟在哪里。

一、意大利政府宣布禁用ChatGPT——欧盟启动监管的开始

2023年3 月 31 日,意大利数据保护局 (DPA)发表声明,禁止在意大利使用人工智能聊天平台 ChatGPT。意大利DPA指责ChatGPT系统违反了欧盟《通用数据保护条例》(GDPR),并已对OpenAI这家美国科技公司展开进一步调查。

根据意大利DPA的初步调查,其暂时禁止ChatGPT 的理由主要是:

1 .用户告知义务:OpenAI 没有告知用户其个人数据正在被收集并用于训练其数据算法;

2 .法律依据缺失:OpenAI没有法律依据证明大量收集个人数据用于训练其人工智能模型是正当的;

3 .泄露个人数据:在测试中,ChatGPT 在其回复中提供了与个人数据相关的信息,包括3月20日ChatGPT Plus 部分订阅者的对话和支付信息方面遭遇数据泄露的问题;

4 .年龄验证缺失:ChatGPT没有适当的程序来验证用户的年龄,这可能导致儿童接触到不适合他们年龄水平的内容。

意大利数据保护机构表示,OpenAI 有 20 天的时间来说明它将如何解决监管机构的担忧,否则将被处以 2000 万欧元(2170 万美元)或高达年收入 4% 的罚款。

意大利是第一个禁止使用ChatGPT的欧盟国家,同时也预示着欧盟层面可能采取的相关行动。

根据BBC报道,爱尔兰数据保护委员会正在与意大利监管机构跟进沟通,以了解他们采取行动的依据,并“将与所有欧盟数据保护机构就禁令进行协调”。

此外,欧洲刑警组织近期出具了一份报告《ChatGPT:大型语言模型对执法的影响》(ChatGPT: The impact of Large Language Models on Law Enforcement)详细说明了如何使用生成人工智能——在某些情况下,已经在使用它——来帮助人们犯罪,从欺诈和诈骗到黑客攻击和网络攻击。例如,聊天机器人能够以特定人的风格生成语言,甚至模仿他们的声音,可以使其成为网络钓鱼诈骗的有力工具;语言模型在编写软件脚本方面的熟练程度,几乎可以让人人都能够生产恶意代码等。

AI观察:意大利首禁ChatGPT拟开2000万欧元罚单,AI开发狂飙应否踩刹车?

 图片来源:欧洲刑警组织官网

二、欧盟《人工智能法案》为AI模型提供商和第三方赋予重大义务

《人工智能法案》(AIA)是一项欧盟的旗舰立法,旨在根据人工智能造成伤害的能力对其进行监管。AIA 作为该领域第一个综合性法律框架,有可能像欧盟的GDPR一样,成为全球人工智能治理的标准。目前立法提案谈判中的一个大问题,就是如何处理通用人工智能(GPAI) 这种可适应各种任务的大型语言模型。

2023年3月14日,欧盟议会联合报告员透露出最新一版就通用人工智能(GPAI)所作的修改内容。其中提出了通用人工智能(GPAI)模型提供者的一些义务以及不同供应链参与者的责任规范。

(1)定义——通用人工智能(GPAI)纳入监管范畴

通用人工智能(GPAI)被定义为:一种“在大规模广泛数据上进行训练的人工智能系统,专为输出的通用性而设计,并且可以适应广泛的任务”。

上述定义很宽泛是为了能够包含未来发展的人工智能,因此文件中也规定了非通用人工智能 (GPAI) 的类别:为有限应用程序开发的AI系统不能适应广泛的任务,如组件、模块或简单的多用途AI系统,不应被视为通用AI系统。

(2)通用人工智能(GPAI)提供者责任

通用人工智能(GPAI)提供商遵守最初对更有可能造成重大损害的人工智能解决方案的一些要求,其中解决方案的设计、测试和分析应符合法规的风险管理要求。在整个生命周期内,ChatGPT等必须接受外部审计,测试其性能、可预测性、可解释性、可纠正性、安全性和网络安全,以符合人工智能法案的最严格要求。

在这方面,欧盟立法者提出了一项新的条款,通用人工智能(GPAI)模型的提供者必须在欧盟数据库中进行注册;基于人工提示生成文本的人工智能模型可能被误认为是真实的人工内容,必须遵守作为高风险人工智能供应商的质量管理和技术文件要求,并遵循相同的合格评定程序。

(3)通用人工智能(GPAI)第三方责任

欧盟立法者修改了文本序言中关于人工智能价值链上经济参与者责任的一段,并将其纳入文本的强制性部分。任何第三方,如人工智能的分销商、进口商或部署者,如果大幅度修改人工智能系统(包括通用人工智能系统),都将被视为高风险系统的提供者(具有相关义务)。

在这方面,引入了一个新的附件,列出了通用人工智能(GPAI)提供商应向下游运营商提供的信息示例,这些信息涉及《人工智能法案》的具体义务,如风险管理、数据治理、透明度、人力监督、质量管理、准确性、稳健性和网络安全。

相关公司应当注意,《人工智能法案》可以适用于欧盟境外,将会成为“布鲁塞尔效应”(欧盟单方面监管全球市场的权力)的另一个例子。只要人工智能系统的影响发生在欧盟内部,无论AI提供者或用户在哪里,《人工智能法案》都将适用于欧盟或非欧盟的企业。

三、民间的反对:什么才是人工智能的真正风险?

然而,大规模监管仍旧是未来的,从全球科技巨头到初创公司纷纷投身于AI开发,到微软解散了原有的科技伦理团队,生成式人工智能必定将经历一个时期的野蛮生长。

>>>>错误信息、劳动力影响和社会安全?

AI观察:意大利首禁ChatGPT拟开2000万欧元罚单,AI开发狂飙应否踩刹车?

图片来源:未来生命研究所(Future of Life Institute)官网公开信页面

近期,OpenAI最初的创始人之一马斯克,带头开始反对人工智能进一步开发,并在未来生命研究所(Future of Life Institute)发布了一封公开信呼吁:我们应该立即停止训练比GPT-4更强大的AI系统,暂停期至少6个月。

目前已经有超过 12,000 +名研究人员、技术专家和公众人物在这封信上签名。这封信对“错误信息、对劳动力的影响和安全”这三大人工智能风险因素提出了警告:

●  我们是否应该让机器用宣传和谎言淹没我们的信息渠道?

●  我们是否应该将所有工作自动化,包括令人满意的工作?

●  我们是否应该发展最终可能超过我们、超越我们、过时并取代我们的非人类思维?我们应该冒险以至最终失去对文明的控制吗?

同时,这封信提出了人工智能是否可以进一步开发的标准:只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。

就连OpenAI的首席执行官 Sam Altman在近期的一次访谈中,也表达过上述可能的安全风险:GPT系列为何会出现推理能力,OpenAI的研究者自己都搞不明白;而根据他的认知,“AI确实有可能杀死人类”。

人工智能教父Geoffrey Hinton、比尔盖茨、纽约大学教授Gary Marcus最近也纷纷发出警示:AI消灭人类,真的不是空谈。

>>>>产品安全与消费者保护角度?

这封信显然已经获得广泛的支持,包括许多真正的专业人士。但也有许多同领域的专家认为,虽然在更广泛的层面上赞同上述三种类型的风险,但却不赞同这封信提出的具体问题:这封信夸大了人工智能的近期能力,所阐释的推测性的、未来主义的风险,却让人忽略了已经形成了真正伤害的问题。

AI观察:意大利首禁ChatGPT拟开2000万欧元罚单,AI开发狂飙应否踩刹车?

人工智能学术专家 Sayash Kapoor 和 Arvind Narayanan 在他们的时事通讯AI Snake Oil中指出,现在语言模型创新的主要驱动力不是推动更大的模型,而是将我们拥有的模型整合到所有方式中的应用程序和工具。他们认为,监管机构应该从产品安全和消费者保护的角度来看待人工智能工具,而不是像遏制核武器一样试图遏制人工智能。不同的应用程序所具有的危害和应当采取的干预措施会有很大差异,比如搜索、个人助理、医疗应用程序等。

>>>>隐私风险是确定的安全漏洞

据韩国媒体近日报道,三星公司在引入ChatGPT的近20天时间内,发生3起数据外泄事件,其中2次和半导体设备有关,1次和内部会议有关:因三星员工直接将企业机密信息以提问的方式输入到ChatGPT中,会导致相关内容进入OpenAI的学习数据库,从而可能泄漏给更多人。三星公司称已告知员工谨慎使用ChatGPT,如果无法阻止类似事故,将考虑禁止在公司内网上使用ChatGPT。

此案例清晰传递出ChatGPT使用者将会遭遇的数据安全风险。

非营利性研究机构“人工智能和数字政策中心”(Center for Artificial Intelligence and Digital Policy)近日向美国联邦贸易委员会(FTC)提出投诉,要求其调查 OpenAI 的做法,停止 GPT-4 软件的进一步商业发布,并确保该公司遵循有关部署 AI 系统的指南和原则。与前述公开信不同,这项投诉强调了一些具体的隐私问题,包括涉嫌对用户聊天记录的不当处理,这可能意味着存在安全漏洞。

生成式 AI 系统对数据隐私的影响主要分为两个方面:一方面,是个人数据有可能被用于训练 AI 模型的数据集中,包括基于公开数据还是私有数据集;另一方面,通过用户与生成人工智能系统的交互来收集和使用个人数据。

四、如何才能避免滥用AI?

对变化速度的焦虑很可能是有道理的。而真正的焦虑,不是来自人工智能会比人类更聪明,而是因为人类已经在使用人工智能以现有机构没有准备好的方式来超越、利用和欺骗彼此。

人工智能应用代表了这一时代的科技进步,但能否真正促进人类社会整体进步,将取决于如何运用这一科技的人类集体的“智慧”。我们仍旧期待一场摆脱恐慌和炒作、做好积极准备的技术变革。

参考链接:

Pause Giant AI Experiments: An Open Letter

https://iapp.org/news/a/a-view-from-dc-should-chatgpt-slow-down/

https://aisnakeoil.substack.com/p/a-misleading-open-letter-about-sci

https://www.washingtonpost.com/technology/2023/04/04/musk-ai-letter-pause-robots-jobs/

Italian data protection authority bans ChatGPT citing privacy violations

EU Draft Artificial Intelligence Regulation: Extraterritorial Application and Effects

作者:张颖  《互联网法律评论》主编

【免责声明】本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。

本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。

本文地址:https://www.cknow.cn/archives/20176

以上内容源自互联网,由百科助手整理汇总,其目的在于收集传播生活技巧,行业技能,本网站不对其真实性、可靠性承担任何法律责任。特此声明!

如发现本站文章存在版权问题,烦请提供版权疑问、侵权链接、联系方式等信息发邮件至candieraddenipc92@gmail.com,我们将及时沟通与处理。