龙8客户端登录在苹果发布会之后,马斯克痛批苹果与OpenAI之间的合作,认为这无异于将用户的隐私信息毫无保留地转手给OpenAI,并配了一张梗图,称苹果作为用户隐私被出卖给OpenAI的中间商。
根据苹果的官方演示,在Siri等地调动ChatGPT的方式,是首先会询问用户是否引用ChatGPT,在此之后代为做一次性的简单查询。这其中,ChatGPT就像网络搜索一样,只不过Siri之前调用搜索引擎,会带来一大串杂乱的搜索结果,现在改为直接用GPT输出一个段落的答案,感觉更好。
如果仅限于此,网传Siri在中国的AI能力会被替换成百度的文心一言,那效果其实也不会差太多,因为这种自然语言替代主要是集中于搜索功能。其实,百度的AI搜索结果精选龙8long8,效果比谷歌英文版的还好一些——后者因为奇葩结果太多,不得不临时降低了在结果页面的展示频率。
。特别是在后乔布斯时代,苹果逐渐陷入创新乏力、“挤牙膏、割韭菜”的质疑声音中。为了普通用户难以感知的升级,每年多花几千块钱换新设备,这种必要性确实越来越受到质疑。所以,无论是否年年换新,一部分苹果用户宁愿舍弃微信双开、通话录音等便利,可能正是为了那份对隐私极度重视,带来的安全和清静的感觉。
。马斯克退出OpenAI管理层,之后又对其提起诉讼,其核心诉求在于让OpenAI回到创业之初的非营利承诺,而不是只顾着赚钱。这一点比较抽象龙8long8,但对马斯克来说则是很重要的问题。与他持有类似观念的还有OpenAI的“超级对齐”团队,他们希望充分监管人工智能的发展,确保它不会失控。但该团队在去年底的一次“宫斗”中失败而解散。
使用AI大模型,会被“开盒”吗?简单的回答就是,AI产品有可能发生隐私泄露,但截至目前,隐私泄露的成因是与AI无关的,更多是传统的安全威胁。
能定位本人的泄露情况最危险,这可能是因为你在疏忽大意的情况下勾选了某些选项,使原本私密的信息被设定为公开范围分享。字节旗下大模型“豆包”近日的风波便是一例。
正如视智未来此前报道提到的,起初,豆包被指使用大量AI聊天结果页面,污染搜索引擎结果。这种行为导致谷歌等搜索引擎,以及依赖它们的Perplexity等AI搜索产品,抓取的结果页面也是AI生成的,导致AI自我引用,结果质量螺旋式下降。然而,字节此举应该不是刻意污染互联网环境,他们可能只是没有意识到,对AI大模型使用同一招数时,事件的性质发生了改变。豆包此举最大的问题在于,
。用户分享某段豆包对话时,分享页面会自动勾选“将对话内容分享到整个网络”的选项,同时也没有7天/30天有效期、链接带密码等常见的选项。在不注意的前提下,可能会让你没有察觉到“我本来只想把这段共享给我的微信群而已”。
可以定位到人的信息泄露还有情况。由于种种原因,我们可能需要与别人“拼车”使用ChatGPT、Midjourney等服务。使用这个账号的历史记录也是共享的,所以你可以看到别人的工作内容,并且通过这些记录与他本人对应起来。当一个共享账号中长时间出现某家公司的具体信息,我们自然可以认为,其中涉及的未发布产品或战略计划等信息很可能是真实的。
在2023年ChatGPT刚刚兴起时,软银、日立等多家大型日企出台政策,禁止员工使用ChatGPT的公开服务。一些企业后来购买了企业版大模型服务,由官方承诺对机密内容的托管是安全的,甚至可以选择在公司内的服务器部署。至于最近非常火的“AI PC”,其本质也是使用高算力芯片,将一些原本需要联网的大模型运算改为本地生成,避免数据上传到远程服务器,而可能发生的泄漏情况。
以上两种情况是与AI能力相关的隐私泄露风险,但这些问题发生的概率很低,并且只要更改使用习惯,也很大程度上可以避免。VOL.3
让我们把视线转回到严肃批评苹果和OpenAI的马斯克身上。既然他对隐私如此看重,他自己的产业是否有过隐私泄露的历史呢?答案是肯定的。
特斯拉曾不止一次发生过用户数据泄露风波,不过较大的几次都是由于内部员工泄露所致。如今年5月发生的一起数据泄露事件,影响超过75000人,包括员工和客户记录。特斯拉调查发现这是两名前员工的“内部不法行为”所致,他们违反了特斯拉的IT安全和数据保护政策,泄露了这些信息。2019-2022年,至少9名特斯拉员工通过内部消息系统,私下分享了车载摄像头记录的音视频内容,包括一些车主的隐私视频和图像。在国内造车“新势力”中,也有一些厂商曾收到职业黑客的敲诈勒索,或是公开了车主的信息数据库等。这是国内众多个人信息在暗网“倒卖”的案例之一。如果类似事情发生在AI工具中,那并不稀奇,但这些事故与AI技术的关系不大。
。即使使用Character.AI或类似的陪伴服务,它们必须通过读取你的个人隐私来变得更懂你、更贴心,你也需要保持警惕。
在拼车使用ChatGPT等账号时,如果是为公司工作,最好在输入过程中隐藏具体公司信息,可以使用一键替换的方式,并且在获得生成结果后,立即删除这段对话
。可以通过将真实事件以“我有一个朋友”的方式转述,使用化名或代号替代真实公司、产品和地域信息,尽量避免将真实信息告诉在线大模型。
在使用诸如AI Pin、Rabbit R1或Meta-雷朋太阳镜等AI硬件时,它们希望你的输入是多模态的,例如对着摄像头问“这朵花是什么”。
这种情况下,AI硬件可能要求24小时授权摄像头和麦克风的访问。这本身存在较高的隐私泄露风险,因此需要权衡安全性和便利性的利弊
总体而言,使用AI服务就算不幸发生了隐私泄露,在目前,这也跟AI没有特别的关系,而是任何一家互联网公司都面临的同样的风险。了解这一点,可能会让你更放心地继续使用大模型等AI产品。