Liquid AI正式发布新一代液态基础模型LFM2,在边缘模型领域创下速度、能效与质量的新纪录。该模型采用独特的结构化自适应算子架构,相比传统Transformer模型具备更高效的训练能力、更快的推理速度及更强的泛化性能,尤其擅长长文本处理和资源受限场景。
(技术突破)
性能表现:
CPU端吞吐量较Qwen3、Gemma 3n等主流模型提升200%
指令跟随与函数调用能力超越同规模级模型
训练效率较前代提升300%
架构创新:
突破Transformer架构限制
支持任意处理器端侧部署
开源完整模型架构与权重参数
(生态部署)
开放获取:
Hugging Face平台提供模型下载
Liquid Playground在线测试环境
即将集成:
Edge AI边缘计算平台
iOS原生消费者应用
"LFM2系列专为设备端部署优化,将开启边缘生成式AI与智能体应用新时代,"Liquid AI联合创始人兼CEO Ramin Hasani表示,"这是未来数月我们将发布的强大模型系列的首款产品。"此次发布标志着美国企业首次在效率与质量上全面超越中国阿里云、字节跳动等企业的开源小模型。
(行业影响)
边缘计算革命:
实现毫秒级延迟
支持离线运行
保障数据主权隐私
万亿级市场:
消费电子/机器人/智能家居
金融/电商/教育垂直领域
国防/航天/网络安全应用
据预测,到2035年紧凑型私有基础模型总市场规模将逼近1万亿美元。