Tags

4 个页面

LLM

博客翻译项目碎碎念:历史会话

博客翻译项目最初设计过于复杂——先解析 Markdown 格式,再用占位符保护内容,最后送给大模型翻译。其实这完全是多此一举,大模型本身就具备识别 Markdown 语法的能力,可以直接处理原始内容并在翻译时保持格式完整。

我们的工作就从调试代码,切换到调试大模型的提示词

模型:google/gemma-3-4b 硬件:Nvdia 3060 12GB

没错,选的非思考模型,思考模型在执行翻译任务时,效率不够高,对比了 4b 参数和 12b 参数的效果,针对翻译任务来说 gemma3 的 4b 参数已经足够了,12b 的参数在翻译任务上并没有明显的优势。

12b 参数的速度:11.32 tok/sec,4b 参数的速度:75.21 tok/sec

Claude4发布,尝试开发:hugo标签、超链接翻译助手

本站点基于 hugo 开发,但是笔者一直用的都是中文标题,导致生成的文章超链接不太友好,说人话就是,发出去的时候,看起来不太友好,中文的字符在超链接中会被转义成 %E4%BD%A0%E5%A5%BD 这种形式,虽然可以通过设置 slug 来解决,但是每次都要手动设置,太麻烦了。

所以,今天尝试用 Claude4 来开发一个翻译助手,自动将中文标题转换为英文 slug,并且在文章中添加超链接。这样就可以避免手动设置了。

claude4 真香,上下文的能力大幅提升,复杂任务的处理效率也大幅提升。

ollama 本地部署 deepseek-R1

Ollama 是一个开源的 AI 工具,旨在使用户能够本地运行和部署大型语言模型(LLM)。它的目标是提供一个方便且高效的方式,让开发者可以在本地机器上使用像 GPT 这样的模型,而不需要依赖云端服务。Ollama 支持多种模型,并且专注于优化性能,使得即使是资源有限的设备也能顺畅运行这些模型。