deepseek吧 关注:132,092贴子:341,368
  • 3回复贴,共1

本地部署的qwq 32B与deepseekR1 32B在代码方面的对比。

只看楼主收藏回复

vscode,通过Cline或者Roo Code插件,调用ollama本地部署的模型。来测试qwq 32B与deepseekR1 32B在代码方面的差异。提的需求都是设计一个简易计算器。
总体来说,都完成了任务,运行后没有出现错误。但qwq的ui版面,充分利用了空间,而deepseek的ui设计,有部分空间没能合理利用。但是两个模型用时差异挺大。由于电脑配置太低,本地部署,速度还是比不上用远程的API。
第一个是qwq 32B
#vscode通过cline调用qwq 32B实现,从提出问题到回答完成,用时24分钟。
#机器配置为AMD R7 5800,DDR4 128G内存,4070tisuper16G显卡。

第二个是deepseekR1 32B,
#vscode通过RooCode调用ollama本地部署的deepseekR1 32B模型完成,用时14分钟。
#机器配置为AMD R7 5800,DDR4 128G内存,4070tisuper16G显卡。



IP属地:湖南1楼2025-03-08 16:53回复
    补一个,deepseekR1 14B完成的同样任务。
    #vscode下cline调用ollama本地部署的deepseekR1 14B版本生成。第一次用时5分钟,少了五个按键,提示修改后,还是错的,任务失败。
    #机器配置为AMD R7 5800,DDR4 128G内存,4070tisuper16G显卡。


    一塌糊涂,第一次少了2、3、9、0和=,五个按钮,要求它修复,结果还是没有=号。R1的14B版,就是一个唐氏儿童,做不了正事的。


    IP属地:湖南2楼2025-03-08 16:58
    回复
      2025-10-18 06:38:38
      广告
      不感兴趣
      开通SVIP免广告
      ds32b字写错了,建议计算器


      IP属地:河北来自iPhone客户端3楼2025-03-10 15:03
      回复
        写代码还是得用云端的满血模型吧?本地32B恐怕吃力啊


        IP属地:广东4楼2025-03-10 15:31
        回复