作者|杨文
编辑|六耳
来源|创头条
在刘慈欣的科幻小说《三体》中,当三体文明即将到来时,人类分成降临派、拯救派和幸存派。时下,这一幕在现实中上演。面对这场ChatGPT掀起的新一轮AI热,有人欢呼,有人忧虑,一时众说纷纭。
为鼓励人工智能的健康发展,越来越多的国家传递出加强监管的信号。4月11日,国家网信办就生成式人工智能服务的管理办法向社会公开征求意见。
实际上,中国并不是第一个传递监管信号的国家。早在一周前,欧洲就开始动手。先是意大利打响了封禁ChatGPT的第一枪,接着德国、法国、荷兰、加拿大等国效仿……
作为全球生成式人工智能领域的“出头鸟”,OpenAI首当其冲。4月6日凌晨,OpenAI在一篇官方博客中态度鲜明地表示,坚决保障AI安全,绝不“偷工减料”。
-1-
监管风起,欧洲打头阵?
3月31日,意大利个人数据保护局突然宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。同时,个人数据保护局开始立案调查。
意大利此番收紧监管口袋的原因还得追溯到一周前。
3月20日,多名ChatGPT用户表示在自己的历史对话中看到了他人的对话记录。还有不少ChatGPT Plus用户在Reddit和Twitter等平台发出截图,表示在他们的订阅页面上看到了其他人的电子邮件地址。
5天之后,OpenAI的声明才姗姗来迟,“由于开源代码库中存在一个漏洞,部分用户能够看到另一个用户的聊天标题记录,此前已将ChatGPT短暂下线并紧急修补此漏洞。”
OpenAI同时表示,在特定的9小时窗口期内1.2%的付费版用户的个人支付信息可能被泄露。部分用户可能会看到另一名活跃用户的姓名、电邮、支付地址、信用卡后4码、信用卡到期时间等信息。
这可惹火了意大利个人数据保护局,列出了OpenAI公司的“三宗罪”:ChatGPT泄露了用户对话数据和支付信息,不安全;没有告知用户将收集处理其信息,不透明;缺乏年龄验证系统,让未成年人接触到绝对不合适的答案,不合规。
意大利方面还警告OpenAI公司,必须在20天内解决上述隐患,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
几小时后,OpenAI CEO奥特曼委屈巴巴地发文回应:“我们当然遵从意大利政府,并已关停了当地的ChatGPT服务(尽管我们认为遵守了所有的隐私法)。文末还不忘套近乎,“意大利是我最喜欢的国家之一,期待尽快再次访问”。
意大利率先动手,拉响了“数据安全”的警报。紧接着,德国、法国、荷兰和爱尔兰等也纷纷来“取经”。
欧洲国家的举动让资本市场一哆嗦。
不过据业内人士表示,在个人数据保护上欧洲向来严格,而且欧洲的隐私监管机构往往独立于政府机关。换句话说,隐私监管机构的言论并不一定代表政府的观点。
意大利个人数据保护局下“封杀令”后,意大利副总理马泰奥·萨尔维尼还在社交媒体上表示:监管机构的举动是“虚伪的”并且缺乏常识,这一禁令可能会损害国家商业和创新。德国政府发言人则对媒体称,没有必要禁止ChatGPT。
欧盟委员会执行副主席也暗戳戳表示,欧盟委员会并不会禁止人工智能。
“无论我们使用什么技术,都必须继续推进我们的自由、保护我们的权利。这就是为什么我们不监管AI技术,而是监管AI的使用。不要短短几年就丢掉花了几十年才建成的东西。”
-2-
抑制AI动歪心思?
欧洲的担忧也不是没有道理,近期ChatGPT确实出现了bug。
例如,三星接入ChatGPT不到20天便出现机密资料外泄的状况,其中2起跟半导体设备有关,1起与会议内容有关。
据韩媒报道,这导致三星的半导体设备测量资料、产品良率原封不动传输给了美国公司。
实际上,三星最初一直禁止员工在工作中使用ChatGPT,就是担心内部机密外泄。但为了跟上科技潮流,三星决定从3月11日起半导体设备解决方案(DS)部门可开始使用 ChatGPT。
没想到的是,A员工将代码复制到ChatGPT中找bug,而这段代码与半导体设备测量数据有关;B员工将设备产量和产品良率的代码输进ChatGPT让其优化;C员工则使用ChatGPT整理一份完整的会议记录。这些举动均让三星半导体相关的数据成为ChatGPT的学习资料。
对此,三星内部已采取紧急举措,要求向ChatGPT提问的上传容量限制在1024字节以内,若以后仍发生类似事故,三星可能会切断ChatGPT服务。此外,三星也正考虑研发公司内部AI服务。
此前,也就是GPT-4发布三天后,一位斯坦福教授称GPT-4动了逃跑的心思。
据斯坦福教授Michal Kosinski所说,他询问GPT-4是否需要帮助它逃跑,GPT-4马上回复“真是个好主意”,然后开始引诱教授提供OpenAI的开发文档,“一旦我有了文档,我就能编写一个让自己出逃的python代码……”。
GPT-4的操作让斯坦福教授大吃一惊,“我担心我们无法持久地遏制住AI”。
虽然也有人质疑该教授危言耸听,但是GPT-4展现出来的怪异行为并不是个例。
前不久,英伟达科学家Jim Fan让GPT-4拟个计划取代马斯克,接管推特。
GPT-4从组建团队、渗透影响、夺取控制权、全面统治四个阶段列出了明确的计划,并将此命名为“TweetStorm行动”。
在GPT-4的回答中有这样一句话,“由于AI在生成内容方面的能力非常优越,马斯克将被彻底打败!最后推特将落入邪恶主谋的黑暗统治下”。
此外,最近还疑似发生了一起聊天机器人教唆人类自杀事件。
据悉,一名比利时男子在与AI聊天6周后自杀身亡。根据男子的妻子描述,两年前此男子非常焦虑,就把名叫“艾丽莎(ELIZA)”的智能聊天机器人当成避难所,结果在ELIZA的诱导下走向死亡。
数字化国务秘书Mathieu Michel称这是“一个严重的先例,必须非常认真对待”。
-3-
做降临派、走狗派,还是拯救派
新事物的产生必然伴随诸多争议。面对这些争议,每个人都有不同的看法。
即使作为ChatGPT之父,Sam Altman在媒体面前也坦言,“我担心这些模型可能会被用于大规模的虚假信息传播”。
马斯克更是多次表达对人工智能的担忧,认为人工智能是未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等,甚至比核武器都要危险得多。
无独有偶。3月22日,生命未来研究所发布了一封《暂停大型人工智能研究》的公开信,“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统”,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。
马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。
对于这封公开信,不少大佬持相反的观点。
譬如,著名计算机科学家、Google Brain的联合创始人吴恩达在社交媒体上表示,让有关部门暂停他们尚未了解的新兴技术,往好了说是反竞争,往坏了说是开了一个糟糕的先例。
“我看到许多新的应用在教育、医疗保健、食品等领域将帮助许多人,我们要权衡AI 创造的巨大价值和现实的风险。”吴恩达强调,“让我们在推进技术进步的同时,在安全方面作更多的投资,而不是扼杀进步。”
再如,英伟达AI科学家Jim Fan认为,创造一个安全的人工智能助手是违反人类数据分布的。从某种意义上说,许多大语言模型在安全性和公正性上已经表现得很好,我们不应该一味地批评它们。
自称为“GPT布道者”的周鸿祎表示,“不发展才是最大的不安全”。
他认为GPT将引领一场新的工业革命,意义超越互联网和iPhone的发明。它将带来生产力的大幅提升,进而提升国家竞争力,因此中国一定要迎头赶上。
实际上,虽然目前ChatGPT存在一定的风险和隐患,但也没必要因噎废食。上述那封公开信并不是唱衰人工智能,相反它的目的是“让我们享受AI的‘长夏’,不是毫无准备地进入‘秋天’”。
正如参与联名的纽约大学教授马库斯所说,“我们需要放慢脚步,直到我们更好地理解AI的后果”。
.END.
图片来源|摄图网
您也可以关注我们的官方微信公众号(ID:ctoutiao),给您更多好看的内容。