三星本周成为最新一家禁止其员工使用生成式人工智能工具(如ChatGPT和谷歌 Bard)的大公司,并警告员工,如果被发现使用这些工具,他们可能会被解雇。
在彭博社获得的一份内部备忘录中,三星表示,该禁令是由于一名工程师发现敏感内部源代码泄露,并于上个月将其上传到 ChatGPT。根据早些时候的报道,据报道,一名三星员工要求聊天机器人检查敏感数据库源代码是否有错误,而另一名员工则将录制的会议输入 ChatGPT 并要求其生成会议记录。
这家韩国科技巨头是最新一家打击使用 ChatGPT 的公司。由于合规问题,美国银行业巨头摩根大通最近限制其在员工中使用,据报道,亚马逊敦促员工不要与 AI 聊天机器人共享代码。 Verizon 和埃森哲也采取了类似的措施,意大利上个月也曾短暂禁止ChatGPT,称其担心这些服务违反了欧盟数据保护法。
即使是拥有 ChatGPT 所有者 OpenAI 数十亿美元股份的微软也对此表示怀疑。根据一份新报告,微软的 Azure 云服务器部门计划出售运行在专用云服务器上的 ChatGPT 替代版本,数据将与其他客户的数据分开保存。
这些担忧绝不是没有根据的。 ChatGPT 等工具不仅可以帮助攻击者编写听起来合法的网络钓鱼电子邮件和恶意代码,它们还存在数据泄露风险。这些风险已经显现:OpenAI 在 3 月份承认 ChatGPT 已经遭受了第一次重大数据泄露,这暴露了 ChatGPT Plus 订阅者的个人和部分支付数据。
尖端人工智能,传统技术
ChatGPT 等生成式 AI 工具为非技术用户带来了强大的功能,并代表了 AI 的巨大飞跃,以及它彻底改变从我们的工作方式到决策方式的一切的潜力。对于现在使用该技术为论文和社交媒体副本生成类人文本的非技术用户来说,他们可能觉得未来已经到来。事实上,有些人甚至将其称为新的工业革命。
虽然它可能感觉像是某种神奇的八球,但生成 AI 背后的底层基础设施并不是什么新鲜事。与云存储服务非常相似,您与 ChatGPT 共享的所有数据都存储在 OpenAI 的服务器上。除了提示和聊天对话,OpenAI 还会保存其他数据,例如您的帐户详细信息、大致位置、IP 地址、付款详细信息和设备信息。根据 OpenAI 的说法,这些数据用于训练和改进模型,因此它可以更好地理解和响应自然语言查询。
AI is just someone’s computer by Carly Page最初发表于TechCrunch
原文: https://techcrunch.com/2023/05/03/ai-is-just-someone-elses-computer/