以色列网络安全公司Team8的最新报告显示,使用ChatGPT等生成式人工智能的企业可能会因此泄露客户信息和商业机密。
新型人工智能聊天机器人和协作工具的广泛普及,可能会令一些公司面临数据泄露和法律风险。他们担心黑客可能会利用聊天机器人获取敏感的企业信息或对企业发动攻击。此外,目前投喂给聊天机器人的机密信息未来也有可能会被人工智能公司利用。
大型科技公司都在争相通过生成式人工智能技术改进聊天机器人和搜索引擎,利用互联网上获取的数据训练他们的模型,从而为用户提供一站式问答服务。报告称,如果使用机密或私密数据来投喂这些工具,今后将很难删除相关信息。
使用生成式人工智能的企业,其敏感信息、知识产权、源代码、商业机密和其他数据,可能会通过用户直接输入或API等渠道被他人获取和处理,其中包括客户信息或私密信息以及机密信息。Team8将这一风险标记为“高风险”。他们认为,如果采取适当的防范措施,该风险“可控”。
Team8在报告中强调,聊天机器人的查询并不会被输入大预言模型来训练人工智能,而与之相悖的是,最近的报告声称这样的提示信息有可能会被其他人看到。
大语言模型还无法实时自我更新,因此无法将一个人输入的信息反馈给另外一个人,从而有效打消这种顾虑。然而,在训练未来版本的大语言模型时,未必不会采取这种方法。该报告写道。
该报告还标记了另外3项与整合生成式人工智能工具有关的“高风险”问题,并强调了通过第三方应用分享越来越多的信息所产生的威胁。微软就将部分人工智能聊天机器人功能嵌入了必应搜索和OFFice 365工具。
使用人工智能也有可能加剧歧视问题、损害公司声誉或导致企业遭遇侵权诉讼。这些都属于“中风险”问题。
微软公司副总裁安·约翰逊参与起草了这份报告。微软向ChatGPT的开发商OpenAI投资了数十亿美元。
微软鼓励对安全和人工智能领域的网络风险展开透明的讨论。
OpenAI开发的ChatGPT聊天机器人的火爆引发了监管呼声。各界都担心在企业试图利用这项技术提高效率时,这种创新也有可能会被用于不法行为。
美国联邦贸易委员会官员周二表示,该机构将重点关注滥用人工智能技术违反反歧视法或存在欺骗行为的公司。
FTC主席莉娜·可汗和委员黎贝卡·斯劳特及阿尔瓦罗·贝多亚都参加了美国国会举行的听证会,他们被问及与最近的人工智能创新有关的担忧。这项技术可以用于制作高质量的“深度伪造”,从而产生更具欺骗性的骗局以及其他违法行为。
贝多亚表示,使用算法或人工智能的企业不得违反民权法律,也不得违规采取不公平或具有欺骗性的行为。
他表示,黑匣子不能成为无法解释算法的借口。
可汗也认为最新的人工智能技术可以帮助不法分子开展欺诈活动。她同时表示,任何不当行为“都应该得到FTC的制裁”。
斯劳特指出,FTC在100年的历史上一直都要适应不断变化的技术,而适应ChatGPT和其他人工智能工具也并无不同。
按照组织设置,该委员会应该拥有5名委员,但目前只有3名,而且全部为民主党人。