中国的chatGpt禁用规定 chatgpt被屏蔽了吗

ChatGPT(生成式预训练转换器)正遭遇“围剿” 。
4月3日,德国联邦数据保护专员发言人称,出于数据保护方面的考虑,暂时禁止在德国使用ChatGPT原则上是可能的 。而3月底,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT , 并限制开发这一平台的OpenAI公司处理意大利用户信息 。
意大利这一举动,被视作打响了人类保卫战的第一枪,但“封杀”ChatGPT,在意大利高层也引发了激烈讨论 。
五天用户破百万 , 2个月用户上亿,ChatGPT爆火,将生成式AI推上了风口 。用户追捧从侧面说明这绝非一次概念炒作,而是实实在在的技术改善,而机器学习算法缔造的生成式AI,具备在横向领域应用的能力——ChatGPT可以是聊天AI(人工智能),也可以应用在编程以及搜索上 。针对这种能力有一句口号:万物皆可GPT 。
誉满后必然是毁满 。早在2022年6月 , 谷歌一位工程师交上了21页调查报告,认为谷歌AI模型LaMDA已经拥有人格,再训练下去会导致不可预见的后果 。如今,ChatGPT同样面临这样的挑战 。
担忧AIGC(人工智能生成内容)具备人格并引发灾难的人不在少数 。近期,OpenAI创始投资人马斯克联名千人要求“暂停巨型AI实验”,将ChatGPT停留在GPT4.0阶段 。连OpenAI的CEO奥特曼都认为,开源GPT算法是非常危险的行为,因为如果被坏人使用将危害无穷 。
大家到底在担心什么?第一个层面是ChatGPT可能取代人类 , 甚至会出现科幻片中清洗人类的危险 。这部分担忧实际上源自于科幻,也源自于哲学范畴,对人格和AI人格区别化界定 。最早的小说可能是《佛兰肯斯坦》 。
第二个层面是ChatGPT可能破坏数据安全 。诸如AIGC有爬取数据的功能,这会让数据隐私在互联网时代更加无所遁形 。
第三个层面是信息茧房 。由ChatGPT引导的信息搜索结果,可能导致新的信息茧房,也就是我们只能获得ChatGPT给予的信息 。相比于搜索推荐和内容算法推荐,ChatGPT推送信息更加精准,我们这一代还会手动找一找信息来源,“后浪们”会不会产生依赖?
第四个层面是GPT遭遇滥用危害无穷 。万物皆可GPT,GPT会应用到任何领域 。如果这项功能被别有用心的人掌握,势必会产生恶劣影响 , 不亚于恐怖分子掌握了核武器 。
实际上,对于取代人类之说,无需忧虑 。机器学习下,AI的确是技术黑箱 , 但说到底还是数学、统计学、计算机学的融合体,是一堆函数和数学模型的最终产物 。这种担忧本身来自于科幻,也来自于人类独特的想象力 。如果AI是提升人类认知水平和科技水平的一种工具,我们应该用AI来提高认知 , 应对其他潜在风险,而不是去猜测可能性 。
不过 , ChatGPT带来的数据安全和信息茧房问题,要给与重视 。AIGC说到底是一种工具,而且是一种强大的工具,爬取数据,建立信息茧房和被别有用心的人掌控,造成的破坏不容小觑 。直白点说,它会成为收割金钱和利益的工具 。
惧怕被收割,就不发展AIGC吗?并非如此,一方面人类从未成功阻止过一项有用技术的发展,技术的进步只会降低工具门槛,最终让技术更加不可控 。另一方面,人类应对技术带来的负外部性,一般是靠技术本身 。比如,应对核武器的手段就是核武器本身,我们称之为“黑暗森林” 。因此,监管AI的方式,在规则层面很难找到突破口,因为AI本身太复杂 , 只有AI才能监管AI 。所以,应鼓励人们早日掌握这些关键技术 , 应用到关键领域 。


以上关于本文的内容,仅作参考!温馨提示:如遇健康、疾病相关的问题,请您及时就医或请专业人士给予相关指导!

「四川龙网」www.sichuanlong.com小编还为您精选了以下内容,希望对您有所帮助: