尝试 qwen3 的 0.6b 模型

更新日期: 2025-08-01 阅读次数: 66 字数: 360 分类: AI

之前尝试了 Google Gemma 3n 模型,参考笔记 Ollama 安装 Google Gemma 3n 模型。但是,我想找一个占用内存更小,更流畅的 LLM 模型。

恰好看到有人在讨论 qwen3 0.6b 模型,于是测试了一下,发现运行很流畅。

安装并运行

ollama run qwen3:0.6b

测试运行效果

很流畅,居然还带 thinking 过程。。。

模型文件大小

> ollama list

NAME              ID              SIZE      MODIFIED
qwen3:0.6b        7df6b6e09427    522 MB    4 hours ago
gemma3n:latest    15cb39fd9394    7.5 GB    2 weeks ago

相比 gemma3n 这个模型小多了,只有 500M。

内存和 CPU 占用

qwen3:0.6b 内存和 CPU 占用

占用内存 1.5G 内存左右。这个就非常完美了。

模型参数

>>> /show info
  Model
    architecture        qwen3
    parameters          751.63M
    context length      40960
    embedding length    1024
    quantization        Q4_K_M

微信关注我哦 👍

大象工具微信公众号

我是来自山东烟台的一名开发者,有感兴趣的话题,或者软件开发需求,欢迎加微信 zhongwei 聊聊, 查看更多联系方式