不习惯用鲁大师,大概配置就是E5-2684V4+华南金牌+128G DDR3+GTX660+淘汰下来的老旧硬盘。
参照网上DeepSeek教程,本地安装Ollama,下载QwQ,安装Chrome插件Page Assist,顺利跑了起来,没有调用GPU,把模型读入内存后就全是CPU的事了。
按说,后续随着各个大模型的不断优化,用上2路或者4路洋垃圾后,用CPU也可以达到勉强能用的水平,本地喂养知识怪兽不是梦
截图见楼下。
参照网上DeepSeek教程,本地安装Ollama,下载QwQ,安装Chrome插件Page Assist,顺利跑了起来,没有调用GPU,把模型读入内存后就全是CPU的事了。
按说,后续随着各个大模型的不断优化,用上2路或者4路洋垃圾后,用CPU也可以达到勉强能用的水平,本地喂养知识怪兽不是梦


















