BlackBeRRy的最新研究显示,全球75%的企业目前正在禁止或考虑禁止在工作场所使用ChatGPT等生成式人工智能(AI)应用。
61%的企业表示,这些禁令是长期或永久性的,主要是出于对数据安全、隐私和企业声誉的风险考虑。83%的企业还表示,担心不安全的应用会对其企业IT环境带来网络安全威胁。
调查结果还显示,企业内部的技术领导层在推动这些禁令的实施方面处于领先地位,在近一半的企业中,CEO也发挥了主导作用。
ChatGPT是OpenAI于2022年11月30日推出的一种新型AI聊天机器人工具,可根据用户的要求快速生成文章、故事、歌词、散文、笑话,甚至代码,并回答各类疑问。在推出仅两个月后,它的月活跃用户就达到了1亿人,成为历史上增长最快的消费者应用之一。
随着ChatGPT大火,人们对ChatGPT等生成式AI的兴趣激增。然而,这些AI工具是不可预测的,并且容易泄露用户数据。
虽然像ChatGPT这样的生成式AI对于提高工作效率非常有帮助,但是将ChatGPT用于工作时还是有许多问题没有解决。
今年4月初,外媒曾报道称,三星引入ChatGPT不到20天就发生了3起涉及ChatGPT的事故,其中2起与半导体设备有关,1起与会议内容有关。
今年5月初,在发现员工将敏感代码上传到ChatGPT后,考虑到机密信息泄露的可能性,三星决定暂时限制员工在部分办公室使用包括ChatGPT和谷歌旗下对话聊天机器人BaRd在内的生成式AI工具。
今年5月下旬,一份内部文件显示,出于保密考虑,苹果公司也限制员工使用ChatGPT、BaRd和其他外部AI工具。
除了三星和苹果外,摩根大通、德意志银行、VeRizon和亚马逊等其他公司也限制员工使用ChatGPT。