(相关资料图)
编程客栈() 4月19日消息:据彭博消息,根据以色列网络风险公司 Team8 的一份报告,使用 ChatGPT 等生成式人工智能工具的公司可能会将客户的机密信息和商业秘密置于危险之中。
该报告说,新的人工智能聊天机器人和写作工具的广泛采用可能使公司容易受到数据泄露和诉讼的影响。人们担心的是,聊天机器人可能被黑客利用,获取敏感的公司信息或对公司采取行动。还有人担心,现在输入聊天机器人的机密信息将来可能会被人工智能公司利用。
包括微软公司和 Alphabet 公司在内的主要技术公司正在竞相增加生成式人工智能能力,以改善聊天机器人和搜索引擎,在从互联网上搜刮的数据上训练他们的模型,为用户提供一站式的查询服务。报告说,如果这些工python具被输入机密或私人数据,那么要消除这些信息将是非常困难的。
「企业使用 GenAI 可能会导致通过用户直接输入或 API 访问和处理敏感信息、知识产权、源代码、商业秘密和其他数据,包括客户或私人信息和机密信息,」报告说,将风险列为 「高」。如果引入适当的保障措施,它将风险描述为「可控」。
Team8 的报告强调,聊天机器人的查询并没有被送入大型语言模型来训练人工智能,这与最近关于这种提示有可能被他人看到的报道相悖。「截至目前,大型语言模型不能实时更新自己,因此不能将一个人的输入返回到另一个人的回应,有效地驳斥了这种担忧。然而,对于这些模型的未来版本的训练来说,这不一定是真的,」它说。
该文件指出了整合生成python式人工智能工具的其他三个「高风险」问题,并强调了越来越多的信息通过第三方应用程序共享的高度威胁。微软已经在其必应搜索引擎和微软 365 工具中嵌入了一些人工智能聊天机器人功能。它说:「例如,在用户方面,利用 GenAI API 的第三方应用程序,如果被破坏,有可能提供对电子邮件和网络浏览器的访问,攻击者还有可能冒充用户采取行动。
Team8 认为,使用生成式人工智能有一个「中等风险」,即可能增加歧视,损害公司的声誉,或使其面临版权问题的法律诉讼。
微软公司副总裁 Ann Johnson 参与了该报告的起草工作。微软已经向 ChatGPT 的开发商 OpenAI 投资了数十亿美元。微软发言人说:「微软鼓励在安全和人工智能社区对不断变化的网络风险进行透明讨论。」
数十个美国公司的首席信息安全官也被列为该报告的贡献者。Team8 的报告还得到了美国国家安全局和美国网络司令部前负责人的认可。