常见问题
团队在评估本地 AI 适配分析时最常问的问题。
当大家理解 LLMFit 是“适配判断层”,而不是又一个模型列表或运行时工具之后, 这些问题通常会自然出现。
LLMFit 是推理运行时吗?
不是。LLMFit 用来判断某台机器更适合哪些模型和运行时,但它不替代 Ollama、MLX、llama.cpp 这类真正执行推理的工具。
它到底更适合哪些用户?
独立开发者、平台团队、方案顾问和 Homelab 用户都适合。尤其是那些反复需要回答“这台机器到底能把什么跑好”的人。
为什么不能只看 Benchmark 榜单?
Benchmark 可以帮助理解模型相对质量,但无法回答一台具体机器是否能以可接受的内存占用和吞吐运行它。
对 Apple Silicon 有帮助吗?
有。项目已经包含面向 Apple 的逻辑、MLX 覆盖和统一内存感知的适配判断。
可以接入内部调度器或门户系统吗?
可以,而且这是它最强的场景之一。你可以在每台节点上运行 `llmfit serve`,再由控制平面统一聚合结果。
纯 CPU 机器还有价值吗?
有价值。纯 CPU 环境下错误选型的代价更高,所以更需要在下载与部署前先做适配分析。
品牌站点一定要和运行时工具部署在同一台机器吗?
不需要。站点是静态内容,可以独立部署。运行时工具和文档站完全可以在不同主机上分别维护。
正式切域名前应该做什么?
先用 `curl --resolve` 验证主机路由,确认所有公开主机名都被 TLS 覆盖,并保留旧站点与反向代理配置备份。