谁是反ChatGPT?”

日期:2023-05-12 17:14:42 / 人气:11032

作者:鲁世鸣
科技突破不仅会带来改变,也会带来一些潜在的风险。
自ChatGPT发布以来,无数用户和企业仿佛看到了“未来”,投入到热情的拥抱中。然而,在硬币的另一面,ChatGPT也在经历一场“围剿”。
在国家层面,意大利宣布禁止ChatGPT后,许多政府和企业开始调查或采取措施限制该软件的使用。在域层面,包括乔治·华盛顿大学和巴黎政治学院在内的全球多所大学已经宣布禁止学生在其学校设备和网络上使用ChatGPT,以防止学生作弊。
相对于国家和某个领域,全球很多大企业对ChatGPT更“敏感”。
在科技公司中,三星、软银、松下、LG、TSMC和SK海力士都宣布限制员工使用ChatGPT。在金融企业中,摩根大通已经禁止其员工使用ChatGPT。在电子商务领域,亚马逊曾经禁止团队成员将机密的客户数据输入ChatGPT...
很多企业之所以对ChatGPT保持非常谨慎的态度,甚至限制其使用,并不是不理解生成式AI所隐含的时代机遇,而是在意ChatGPT对企业“隐私安全”造成的威胁。
企业越大,数据安全和隐私的枷锁就会越重越强,自然也会对ChatGPT这样的工具更加谨慎。
大厂“残疾人”ChatGPT
不久前,三星推出新政策,要求员工不得在工作场所使用OpenAI的ChatGPT、Google Bard等生成式人工智能。
目前,三星员工被禁止在公司设备上使用人工智能工具,包括电脑、平板电脑和手机。然而,员工仍然可以在个人设备上使用人工智能工具,但仅限于与工作无关的事情。备忘录还强调,要求员工认真遵守安全标准。如果违规导致公司信息或数据泄露,员工将受到纪律处分,情节严重者将被解雇。
事实上,在三星“严格”的新政策之前,全球已有多家公司发布公告“限制”员工使用ChatGPT。
第一家对ChatGPT发出“不友好”声音的公司来自金融行业。
ChatGPT流行后不久,今年2月,JP摩根大通、美国银行、花旗集团、富国银行等华尔街巨头纷纷表示,将禁止或限制ChatGPT的使用。据了解,摩根大通不允许员工在办公室使用ChatGPT。它表示,这一禁令不是由任何具体事件引起的,而是基于该公司对第三方软件的正常控制。
美国银行在例行提醒员工不要使用未经授权的软件时,也特意提到了ChatGPT。德意志银行甚至明确表示,严禁员工在公司内使用ChatGPT,并从内部封锁OpenAI网站的连接。虽然高盛鼓励程序员使用AI辅助编程,但禁止其交易员使用ChatGPT。
在日本,软银、日立、富士通和日本瑞穗金融集团等公司也开始限制在商业运营中使用ChatGPT等交互式人工智能服务。
相比金融行业,科技行业一点都不慢。
今年3月初,TSMC发布了一系列内部公告,提醒员工谨慎使用ChatGPT或Bing AI Chat等网络工具。除了三星,同为韩国企业的全球第二大内存芯片巨头SK海力士也表示,禁止在公司内网使用ChatGPT,“除非必要”。
不可否认,ChatGPT这样的生成式AI对于提高工作效率是很有帮助的,但是对于这样一个不成熟的AI工具来说,其负面作用并不小于其正面作用。就像一把双刃剑,在没有“剑鞘”作为保护机制之前,ChatGPT的“围剿”永远不会停止。
可以预计,禁用ChatGPT的企业数量还会继续增加。
数据安全是核心原因。
ChatGPT的流行其实是“深度学习”模式的成功。
生成式AI工具离不开大数据的帮助。它的进化需要海量数据来训练,通过传感器收集数据,存储处理信息,通过计算能力进行计算,最终形成反馈的决策机制。庞大的数据训练让ChatGPT变得强大,但也意味着ChatGPT实际上在不断接触各种对话,这些对话中可能包含相关的敏感信息。
无论是个人、企业还是国家层面,机密数据和文件隐私都可能在使用过程中被ChatGPT收集,从而被大规模传播。这些数据的泄露也很可能给个人、企业甚至国家造成巨大损失。
三星无疑是典型的“受害者”。
据了解,今年3月,三星半导体业务和设备解决方案部门(DS)允许员工使用ChatGPT,在接下来的20天内发生了三起将公司内部半导体数据上传到ChatGPT的事件。
其中,员工A用ChatGPT帮他检查一个bug在一段代码中;员工b想用ChatGPT帮他优化一段代码;员工C想用AI语音助手Naver Clova把他的会议录音变成文字,然后用ChatGPT帮他总结会议内容,做总结。
前两个案例已经导致三星半导体设备测量数据、产品良率等机密内容被输入ChatGPT的学习数据库,这让三星非常担心自己的数据最终会通过人工智能平台落入其他用户手中。
不仅是三星,数据安全服务公司Cyberhaven也检测到并阻止了其160万名员工中的4.2%将数据输入ChatGPT,原因是存在泄露机密信息、客户数据、源代码或监管信息的风险。
Cyberhaven还发现,随着ChatGPT的应用率越来越高,向其上传企业数据的农民工也越来越多。一天之内(3月14日),每10万员工平均向ChatGPT发送5267条企业数据。

来源:网络天堂
Cyberhaven数据显示,员工直接发送到ChatGPT的企业数据中,有11%是敏感数据。例如,在一周内,10万名员工向ChatGPT上传了199份机密文档、173份客户数据和159份源代码。
和三星一样,所有“限制”ChatGPT的公司,无论是在什么领域,基本都很关注数据保护,非常担心第三方软件访问敏感信息带来的风险。毕竟ChatGPT处理的数据通常是多样而复杂的,其数据采集、存储、传输和处理都存在“合法性”问题。
随着ChatGPT在自然语言处理领域的广泛应用,人们面临着越来越大的数据安全和隐私保护的挑战。
机遇与风险并存。
技术发展的历史也是人类恐惧的历史。
15世纪的德国学者对新发明的古腾堡印刷机非常担心,认为这会让他们拥有永远读不完的文件,他们的作品将不再稀缺,大量的抄写员将失去工作。
接着,在工业革命时期的“路德运动”中,工人们拆除了针织机的关键部件,袭击了仓库,并威胁要采取更加暴力的行动。事实上,这些操作机器的工人非常清楚设备的生产效率。他们采取行动不是反对机器,而是反对工厂降低工资、裁撤岗位和忽视生产安全的做法。
新技术出现后总会有一个过渡期,这也是社会对它关注最密切的时期。ChatGPT的能力很强,让很多企业开始主动拥抱,让很多企业感到“害怕”。
数据安全确实是必须防范的一点。越大的公司,或者有数据安全和隐私枷锁的公司,对待类似工具会越谨慎。三星的做法是“安全的”。毕竟大企业除了内部数据,还有很多客户数据。一旦发生数据泄露事件,后果不堪设想。
然而,有时谨慎和应用并不冲突。
我们如何抓住机遇,化解风险?对于这些大企业来说,目前似乎只有一条路可以选择,那就是开发自己的ChatGPT。这样既解决了风险,又提高了员工的工作效率。以三星为例,虽然ChatGPT被“限制”,但并没有完全禁止。
为了避免内部信息泄露,三星计划开发自己的内部AI工具,供员工完成软件开发和翻译。此外,三星还向旗下所有手机和平板产品推送了微软Bing AI更新。本次更新完成后,三星用户可以直接通过手机或平板电脑使用微软Bing AI。

图:三星手机嵌入微软Bing AI(音调使用)
除了企业的积极防范,ChatGPT无疑还需要加强对用户隐私的保护,包括匿名处理、数据去标识、隐私保护算法等等。特别是在数据共享和开放研究方面,ChatGPT需要遵循相关法律法规和伦理标准,采取有效的隐私保护措施,保护用户的隐私权。
此外,ChatGPT还需要积极参与数据安全和隐私保护的标准制定和监管政策建设。通过制定统一的数据安全和隐私保护标准,加强监管和法律保护,促进数据共享和合作,可以更好地保护用户的隐私和数据安全。"

作者:世纪娱乐




现在致电 5243865 OR 查看更多联系方式 →

世纪娱乐 版权所有