Tags

3 个页面

llm

博客翻译项目碎碎念:历史会话

博客翻译项目最初设计过于复杂——先解析 Markdown 格式,再用占位符保护内容,最后送给大模型翻译。其实这完全是多此一举,大模型本身就具备识别 Markdown 语法的能力,可以直接处理原始内容并在翻译时保持格式完整。

我们的工作就从调试代码,切换到调试大模型的提示词

模型:google/gemma-3-4b 硬件:Nvdia 3060 12GB

没错,选的非思考模型,思考模型在执行翻译任务时,效率不够高,对比了 4b 参数和 12b 参数的效果,针对翻译任务来说 gemma3 的 4b 参数已经足够了,12b 的参数在翻译任务上并没有明显的优势。

12b 参数的速度:11.32 tok/sec,4b 参数的速度:75.21 tok/sec

ollama 本地部署 deepseek-R1

Ollama 是一个开源的 AI 工具,旨在使用户能够本地运行和部署大型语言模型(LLM)。它的目标是提供一个方便且高效的方式,让开发者可以在本地机器上使用像 GPT 这样的模型,而不需要依赖云端服务。Ollama 支持多种模型,并且专注于优化性能,使得即使是资源有限的设备也能顺畅运行这些模型。