Follow feeds: blogs, news, RSS and more. An effortless way to read and digest content of your choice.
Get Feederhkvision.cn
Get the latest updates from HaoKunT的博客 directly as they happen.
Follow now 15 followers
Last updated 3 months ago
3 months ago
本文为原创文章,转载注明出处,欢迎关注网站https://hkvision.cn 写在开头 最近由于工作的原因,已经有段时间没有更新博客了。一方面担心可能会引发不必要的纠纷,另一方面确实因为工作太忙、太累,实在抽不出时间和精力来写文章。不过,恰逢DeepSeek R1的热度持续上涨,我也想借这个机会,分享一个之前踩到的小坑,希望能对大家有所帮助。 背景 目前网上教的本地通过 ollama 来部署大模型的方式,都需要使用 ollama run <model> 这样的命令,或者通过一些可视化的前端来安装模型,但是这样的命令很可能因为直连,出现下载缓慢的状况,针对这样的状况,目前,网上的教程大多建议用户从ModeScope下载模型文件后手动包装modelfile文件再给Ollama使用。这种方法不仅步骤繁琐且容易出错。