密歇根大学的研究人员发现,开源小型语言模型(SLM)可以提供类似于资源密集型专有大型语言模型(LLM)的会话响应,如OpenAI的ChatGPT,且成本较低。他们将研究结果发表在arXiv预印本服务器上,并且在最近的2024年IEEE国际系统和软件性能分析研讨会上展示了他们的研究成果。该团队开发了一种能够评估SLM并将其与专有LLM应用程序编程接口进行比较的同类工具,包括性能和成本。LLM所展示的理解和生成语言的能力已在虚拟助理、聊天机器人和语言翻译系统等应用程序中得到广泛使用。尽管LLM很有用,但它的培训成本高达数百万甚至更多,限制了人工智能向科技巨头的发展,而小公司必须依赖其付费服务。密歇根大学计算机科学与工程副教授Jason Mars表示。
实施专有LLM提高了速度和便利性,但也带来了定制和数据隐私有限、性能不可靠、峰值使用滞后和成本高的缺点。开源SLM已经成为一种替代方案,但到目前为止,还没有一种方法可以系统地将其性能与更广为人知的LLM进行比较。研究团队开发了一种名为dSLaM的自动化分析工具,作为第一种评估SLM及其与LLM相比的权衡(质量、性能和成本)的方法。
“我们创建了SLaM,并将其开源,以填补加速和自动化工具的空白比较分析。”Mars说。
该工具在Myca AI正在开发的一款名为 "daily pep talk."的人工智能生产力工具中进行了测试。该功能利用用户的任务列表,每天提供个性化和智能的鼓励和建议。研究人员在 "daily pep talk."的生产环境中,针对OpenAI的GPT-4评估了九个SLM的29个不同版本。虽然GPT-4在人类专家组的判断中达到了最高的准确率,但大多数SLM在可预测的延迟性能方面接近其质量。计算机科学与工程副教授唐凌佳表示:“这些小型模型所提供的高质量答案让我们感到惊讶。很多时候,用户无法真正区分SLM和LLM。”重要的是,与LLM相比,SLM的成本降低了5到29倍,具体取决于使用的模型。“这一发现对试图在这场激烈的人工智能竞赛中保持竞争力的小公司具有重大意义。借助SLaM工具,公司可以选择更小的开源模型能够提供高质量的答案,但成本更低,从而减少了对科技巨头的依赖,”唐补充道。