Confer在设计上力求在外观和使用体验上与ChatGPT或Claude相似,但其后端架构旨在避免数据收集,且采用了让Signal备受信赖的开源严谨机制。

Moxie Marlinspike推出了一款注重隐私可替代ChatGPT的产品

 

如果你对隐私问题稍有担忧,人工智能个人助理的兴起可能会让你感到不安。使用这类服务时很难不分享个人信息,而这些信息会被模型所属公司留存。鉴于OpenAI已开始测试广告业务,不难想象,如同支撑Facebook和谷歌的数据收集方式,类似行为也会悄然渗透到你的聊天机器人对话中。

Signal联合创始人莫克西·马林斯派克于12月推出的新项目,展示了注重隐私的人工智能服务可能的样子。Confer在设计上力求在外观和使用体验上与ChatGPT或Claude相似,但其后端架构旨在避免数据收集,且采用了让Signal备受信赖的开源严谨机制。你与Confer的对话不会被用于训练模型或进行定向广告投放,原因很简单:服务提供商永远无法获取这些对话内容。

在马林斯派克看来,这些保护措施是针对该服务私密特性的应对之策。 “这是一种会主动引导用户倾诉的技术形式,”马林斯派克表示,“像ChatGPT这样的聊天界面比以往任何技术都更了解用户。当这种特性与广告结合时,就好比有人收买你的心理治疗师,让他说服你购买东西。” 要确保这种隐私性,需要多个不同系统协同运作。 首先,Confer使用WebAuthn密钥系统对进出系统的消息进行加密。(遗憾的是,该标准在移动设备或运行红杉(Sequoia)系统的苹果电脑上效果最佳,不过借助密码管理器,在Windows或Linux系统上也能使用。)

在服务器端,Confer的所有推理处理都在可信执行环境(TEE)中进行,并且配备了远程认证系统来验证系统未遭破坏。在这个环境中,有一系列开放权重的基础模型来处理所有传入的查询。 这样的配置比标准推理设置(标准推理设置本身就相当复杂)要复杂得多,但它兑现了Confer对用户的基本承诺。只要这些保护措施落实到位,你就可以与该模型进行敏感对话,而不必担心信息泄露。

Confer的免费版限制为每天最多发送20条消息,同时最多可开启5个活跃聊天窗口。愿意每月支付35美元的用户将获得无限制访问权限,还能使用更先进的模型和个性化功能。这比ChatGPT的Plus套餐贵了不少——但隐私向来都不便宜。

© 版权声明

相关文章

返回顶部