AI 变“笨”了吗?揭秘参数精度与推理成本的博弈
近期混迹在各个编程大模型的交流圈,模型降智是大家吐槽最多的事情。
- 本地台式机部署的都是量化以后的模型,可以说是降智后的版本
- vibe coding 这么热门,有没有可能当前大模型输出的内容,代码是最值钱的产物?
近期混迹在各个编程大模型的交流圈,模型降智是大家吐槽最多的事情。
小半个月过去了,国内的 MiniMax,GLM4.6 都付费体验了一波,差距还是存在,cc 工具挺好用的,昨晚折腾前端界面的优化,你懂得,笔者基本不懂前端,vibe coding 以后,才开始接触前端技术栈。国内的大模型没搞定,尝试刚发布的 gemini3,五分钟搞定了,切换到站点的归档页面,你就能看到“书架”。
常年做的后端C++开发,谷歌在这块的影响力太大了,默认谷歌的产品不会太差,大模型前期是落后,不到两年的时间,现在已经追赶上来。
首页的 AI 搜索,百度不知道猴年马月能搞出来,不是说百度不行,是国内的产品没去思考,搜索里面嵌入 AI,最重要的是速度,谷歌做到了。
阿里巴巴(阿里)发布众多大模型,并非简单的“刷数量”,而是一种精心布局的**“模型即服务”(MaaS)生态策略**。这背后有多重考量,可概述为“对内赋能、对外建生态”:
现在用下来并没有哪个大模型特别好,各家都有自己的优势场景。
Ollama 是一个开源的 AI 工具,旨在使用户能够本地运行和部署大型语言模型(LLM)。它的目标是提供一个方便且高效的方式,让开发者可以在本地机器上使用像 GPT 这样的模型,而不需要依赖云端服务。Ollama 支持多种模型,并且专注于优化性能,使得即使是资源有限的设备也能顺畅运行这些模型。