运行时规划
面向 Ollama、MLX 和 llama.cpp 工作流的运行时规划页面
围绕运行时的内容,说明操作便利性在哪一步结束,以及为什么硬件适配判断依然重要。
运行时工具可以降低操作门槛,但它们无法挽救不现实的放置决策。用这些页面选择更匹配机器和工作负载的运行时路径。
运行时规划
可浏览、也可导入产品转化路径的结构化页面。
纯 CPU 机器使用 llama.cpp:它在哪些场景下依然值得
帮助用户理解纯 CPU 本地 AI 仍然有价值的场景,以及为什么更需要适配分析。
纯 CPU 机器使用 llama.cpp:它在哪些场景下依然值得
MLX 与 Apple Silicon:围绕统一内存规划本地 AI,而不是迷信显卡参数 帮助 Apple Silicon 用户围绕统一内存做 MLX 选型与部署规划。MLX 与 Apple Silicon:围绕统一内存规划本地 AI,而不是迷信显卡参数
面向笔记本的 Ollama 选型指南:如何更现实地看待内存和显存 帮助用户在笔记本上为 Ollama 选择更现实的本地模型,而不是盲目追大参数量。面向笔记本的 Ollama 选型指南:如何更现实地看待内存和显存
相邻主题集群
用相邻分类扩展用户的决策路径。
该分类下的页面