安全考量还是测试错误?微软短暂限制员工访问OpenAI的ChatGPT
11月10日讯 自去年年底以来,OpenAI凭借其重磅聊天机器人产品ChatGPT大获成功,而这家初创企业背后最大的投资者是微软。但据媒体了解到,周四有一小段时间,微软员工被禁止使用ChatGPT。
“出于安全和数据方面的考虑,许多人工智能(AI)工具不再供员工使用,”微软在其内部网站上的更新消息中表示。媒体还看到了一张截图,显示微软员工无法在企业设备上访问ChatGPT。
据悉,微软已经向OpenAI投资了130亿美元,占其49%的股份。通过双方的合作,微软享有所有OpenAI产品的优先使用权,同时OpenAI可以使用微软的Azure服务训练最新的模型等产品。微软目前几乎所有最重要的生成式AI产品都依赖于OpenAI。
对OpenAI的押注可能是微软近年来最成功的投资之一。本周早些时候,在OpenAI的首届开发者大会上,微软首席执行官萨蒂亚·纳德拉与OpenAI创始人Sam Altman一起出现在舞台上。OpenAI在此次大会上的重磅更新推动微软股价升至近历史高位。
“虽然微软确实投资了OpenAI, 而且ChatGPT也有内置的保护措施来防止不当使用,但该网站仍然是第三方外部服务。”微软表示。“这意味着由于隐私和安全风险,你必须谨慎使用它。这也适用于任何其他外部AI服务,如Midjourney或Replika。”
短暂限制后恢复访问
值得注意的是,尽管微软最初表示,将禁止使用ChatGPT和设计软件Canva,但后来删除了相关内容,并恢复了对ChatGPT的访问。
在给媒体的一份声明中,微软表示,对ChatGPT的暂时限制是在对大型语言模型(LLM)系统进行测试时出现的错误。
“我们当时正在为大型语言模型测试端点控制系统,无意中为所有员工打开了它们。”一位微软发言人表示。“我们在发现错误后不久就恢复了服务。正如我们之前所说,我们鼓励员工和客户使用Bing Chat Enterprise和ChatGPT Enterprise 等具有更高级别隐私和安全保护的服务。”
微软的更新建议人们使用该公司自己的必应聊天工具,该工具依赖于OpenAI的人工智能模型。
据媒体报道,今年1月,一位微软高级工程师在一个论坛上写道,员工可以使用ChatGPT,但建议不要输入机密信息。
许多大公司都限制了ChatGPT的使用,通常是为了防止机密数据共享。经过大量互联网数据训练后,ChatGPT可以对人们的聊天信息做出类似人类的回应。该服务拥有超过1亿用户。
【来源:财联社】
相关阅读
- 谷歌要挑战GPT-4,已邀请部分公司测试Gemini
- 谷歌前CEO谈OpenAI CEO离职:他将公司从一无所有发展到价值900亿美元
- Intel酷睿Ultra桌面版复活?一个美丽的误会
- 丰田电动车翻身的希望,只剩这块续航1000公里的电池了?
- 英特尔最新四核处理器 i3-14100 现身闲鱼,售价 850 元
- 大模型国际标准启动,华为云、百度、腾讯、蚂蚁等发起成立IEEE大模型标准工作组
- 荣耀绿洲护眼屏+单反级写真相机 荣耀100系列售价2499元起
- 英国将出台《自动驾驶汽车法案》拒绝特斯拉FSD类命名营销
- 华为等靠激光雷达推自动驾驶!特斯拉不屑全力抛弃:开始依赖神经网络
- MIUI 15来了:小米14全球首发Redmi K60至尊版首批适配