贵10倍!微软要推“私有版”ChatGPT?
2023-05-05 15:11:46来源: OFweek人工智能网
企业们想把工作流接入ChatGPT,但又觉得不安全。怎么办?
【资料图】
微软想了一招:给我10倍的钱,我给你造一个“私有版”ChatGPT!
距离OpenAI推出GPT-3,时间已经过了快半年了。这段时间,凡是能跟AI沾上边的互联网大厂或者是科技新势力都想方设法蹭一蹭ChatGPT的热度,有点实力的就赶鸭子上架推出类GPT的语言大模型,是想着抬一波股价也罢,还是真想着为发展AI发光发热,都勉强算是支持AI的。
还有一部分人则自始至终都在担忧AI会产生各种安全隐患,最怕的就是泄露“商业机密”和“隐私数据”。意大利有关部门、香港大学、亚马逊、三星等政府、高校或企业陆续都宣布禁止员工在工作场景使用ChatGPT一类AI工具,以防泄露隐私和机密信息。
眼看着ChatGPT不断吃闭门羹,“AI生钱”梦碎,OpenAI背后的金主爸爸微软真坐不住了,不得不放大招:搞一个“私有版”ChatGPT,不同用户的数据相互独立,彼此不干扰,这样就不怕隐私泄露了。但代价是,需要支付10倍的费用,才能享受此项服务……
“身价”暴涨10倍的私有ChatGPT
美国科技博客 The Information 援引两位知情人士透露,本季度晚些时候,微软 Azure 云服务部门计划销售一个在专用云服务器上运行的 ChatGPT 版本,其数据将与其他客户数据分开保存,类似“私有版”ChatGPT。
知情人士称,这样做的目的是为了让客户放心,其秘密不会泄露到 ChatGPT 主系统。但这将是有代价的,其中一位知情人士说,这款产品的价格可能是客户目前使用 ChatGPT 常规版本的 10 倍之多。
官网显示的信息,微软 Azure 提供的常规共享版本的 ChatGPT,价格仅为每个 token 几分之一美分,而私有版本的价格则是每个 token 数美分(several cents)。
但对微软这次打的算盘,大众并不买账。
Meta在元宇宙业务上折戟,立马调转船头往AI方向猛冲。对微软来说,这样的企业才是最好“忽悠”的。但相反的是,Meta了解了微软提供的服务报价后,直呼这也忒贵了!从而放弃了与微软合作。据悉,Meta CTO 安德鲁·博斯沃斯在内部表示,微软提出的价格是每次查询(query)7 美分,这比常规价格高出了数十倍!
而对这项技术最感兴趣的,是金融和医疗保健行业。据内部人士透露,已经有数家金融、保险和医疗保健行业的企业在试用这项服务。但最后能不能大范围推广,还要看微软怎么推销了。
“数据泄露”问题正在成为ChatGPT的致命点
ChatGPT的智能程度有多高,人们对它的恐惧就有多大。
最近,三星已在内部备忘录告知员工,停止使用 ChatGPT 和 Bard 等生成式 AI 工具,理由是担心会带来安全风险,“违者进行纪律处分,甚至包括解雇”。备忘录里提到,在4月初,有三星工程师将内部源代码上传到ChatGPT上,不小心泄露了源代码。
此前,三星电子引入聊天机器人 ChatGPT 不到 20 天就发生了 3 起涉及 ChatGPT 的事故,其中 2 起与半导体设备有关,1 起与会议内容有关。
三星还指出ChatGPT等AI工具所存在的安全隐患,例如用户很难“检索和删除”外部服务器上的数据,而这些被传输到AI工具上的数据可能会泄露给其他用户。
不止三星,Meta也意识到了AI泄密的风险。Meta AI研究员发现自监督学习模型存在隐私风险,可能泄露个人位置信息 。当被用于AI训练的数据包含隐私信息时,AI会形成“似曾相识记忆”。当类似信息再度被AI捕获,比如个人的正脸照片,AI会用个人面部在模型中进行查询,则可以推断出个人的位置,甚至可以在训练图像中直观地重建他们的位置。此类信息泄露会引发隐私问题。
无独有偶。近日,一款AI图像编辑工具Cutout遭到一起数据泄密事件,因而泄露了多达9 GB 的用户数据,其中包含用户名和通过使用特定查询请求的图像。这起泄露造成的后果对于数据在此事件中泄露的客户来说可能是毁灭性的。
泄露的Elasticsearch 集群
在此之前,摩根大通、美国银行和花旗等华尔街大行早已禁止或限制使用ChatGPT。
微软:可以等AI出问题再管
早在ChatGPT诞生之初,欧盟、英国、美国等国家就倡议对AI进行全面的监管,以防出现不可控的局面。前段时间,这几个倡议国和地区组织就AI监管条件和法规,纷纷达成了共识,并将进行下一步的讨论和落实。
美东时间周三,据路透社报道,白宫官员证实,谷歌、微软、OpenAI和AI研究公司Anthropic的首席执行官,将于当地时间周四与美国副总统卡玛拉·哈里斯和高级政府官员会面,讨论人工智能的关键问题。
身处在这场漩涡中心的微软,想要获得支持并不容易。微软公司首席经济学家迈克尔?施瓦茨近日表示,人工智能“显然”需要受到监管,但立法者应该谨慎行事,等到这项技术造成“真正伤害”时再采取行动。他认为,AI一旦被坏人利用,将会产生真正的危害。监管可以,但是不能对训练数据进行监管,那是灾难性的。
同时,他也向社会透露,微软正在采取一系列措施来减轻AI带来的潜在威胁,例如停止查看与Bing的聊天记录。
从自身利益出发
在这个时候,微软计划推出“私有版”ChatGPT,一方面是减轻社会舆论的压力,应对即将加强的AI监管力度;另一方面,也是为了自身利益而考虑。
虽说自己是OpenAI背后的大金主,但对ChatGPT的实际话语权并不大,而OpenAI肯定要谋求自己利益的最大化,而对微软肯定会有所保留。这种情况下,微软如果不早做打算,只能落于下风,最后说不准只是为别人做嫁衣而已。
所以能看到此次大力度推广“私有版”ChatGPT,主要是建立在自己的云服务基础上的。
微软此举背后的心思可想而知,十分期待行业巨头和AI超新星之间的对撞,会给行业带来怎样的震荡。