📱

Small Language Model

SLM · 小语言模型

📖 什么是 SLM?

Small Language Model(小语言模型)是参数规模相对较小的语言模型,通常在10亿参数以下到几百亿参数之间。

别看它「小」,功能可不少!像苹果的Apple Intelligence、微软的Phi-3、Meta的LLaMA-3-8B都是SLM的代表。

💡 一句话理解

🧠 比喻

AI界的「小巧思」

LLM就像大学教授,无所不知但需要很多资源;SLM就像专科毕业的助手,虽然知识面窄,但上手快、成本低、在手机上就能跑

⚖️ SLM vs LLM 对比

🤖 LLM

千亿/万亿参数

需要GPU服务器

成本高

能力全面

响应较慢

📱 SLM

十亿~几百亿参数

可在手机/电脑运行

成本低

专精某领域

响应快速

🎯 应用场景

📱 手机助手

本地离线运行

🚗 车载系统

实时语音交互

🏭 工业设备

边缘设备部署

🔒 隐私场景

数据不出设备

实时响应

低延迟需求

💰 成本敏感

降低API费用

✅ 优点 vs ⚠️ 局限

✅ 优点

  • 成本低(API费用便宜)
  • 部署简单(普通服务器即可)
  • 响应快(延迟低)
  • 隐私好(数据可本地处理)
  • 省电环保(计算资源需求小)

⚠️ 局限

  • 知识容量有限
  • 复杂推理能力弱
  • 创意能力不足
  • 上下文窗口较小

📱 实际产品

  • Apple Intelligence - iPhone本地运行的SLM
  • Microsoft Phi-3 - 轻量级开源模型
  • LLaMA 3 8B - Meta的小型开源模型
  • Google Gemma - 轻量高效的开放模型
  • Qwen 1.8B / 7B - 阿里云小模型

🔗 相关术语