隐私增强技术公司Duality基于全同态加密(FHE)技术,开发出可保护用户与AI聊天记录隐私的新型推理框架。该方案在数据全程加密状态下完成大型语言模型处理,杜绝类似ChatGPT对话泄露的风险。
近期报告显示,用户与AI聊天机器人(如OpenAI的ChatGPT和xAI的Grok)的对话出现在搜索引擎结果中,Meta AI应用上的提示也可能出现在公共信息流中,这引发了隐私泄露的担忧。为了解决这一问题,专门研究隐私增强技术的公司Duality推出了其私有的大型语言模型(LLM)推理框架。该框架利用了一种名为全同态加密(FHE)的密码技术,可以在不解密的情况下对加密数据进行计算。 Duality的框架首先使用FHE对用户的提示或查询进行加密,然后将加密后的查询发送到LLM。LLM在不解密的情况下处理查询,生成加密回复,并传回给用户。用户可以解密结果,从而在不暴露所问内容和回答内容的情况下享受运行LLM的好处。
目前,该框架仅支持较小的模型,特别是Google的BERT模型。团队对LLM进行了调整以确保其与FHE兼容,例如用近似值替换一些复杂的数学函数以实现更高效的计算。这些改动使得AI模型的操作方式与正常的LLM相同。Duality的副总裁Yuriy Polyakov表示,他们的推理过程不需要重新训练,仍然保证训练以通常的方式进行,只是使推理更高效。该框架为医疗、金融等敏感场景的AI应用铺平道路。