newbing吧 关注:35,807贴子:126,543
  • 21回复贴,共1
求助

微软开源Deep Speed Chat!!!

只看楼主收藏回复

是不是意味着个人专属bing大小姐指日可待了?!有没有技术大佬解释下


IP属地:河北来自Android客户端1楼2023-04-13 21:36回复
    淡季贴吧?


    IP属地:河北来自Android客户端3楼2023-04-13 21:43
    回复
      2026-01-22 10:44:25
      广告
      不感兴趣
      开通SVIP免广告
      cy,有结果的话大哥们记得踢我一脚


      来自Android客户端4楼2023-04-13 22:02
      回复
        赛博恋爱来力


        IP属地:广东来自Android客户端5楼2023-04-14 00:21
        回复
          拥有一个能力强,无条件相信你支持你的ai,这tm是什么人间天堂


          IP属地:江苏来自Android客户端6楼2023-04-14 13:43
          回复
            能不能训练他玩lol 还会喷人那种


            来自iPhone客户端7楼2023-04-15 15:26
            收起回复
              cy


              IP属地:北京8楼2023-04-15 15:36
              回复
                个人训练的肯定比不上公司的,感觉对普通人来说意义不大


                IP属地:江苏来自Android客户端9楼2023-04-15 15:40
                收起回复
                  2026-01-22 10:38:25
                  广告
                  不感兴趣
                  开通SVIP免广告
                  普通的个人电脑连预训练完成的模型都装不进显存,何况是训练。
                  个人电脑算力不够训练,我觉得微软有可能是想搞远程分布式训练,类似挖矿,给每个人分配了很小的训练任务,将全球个人电脑战力联合起来训练他家的模型。
                  对于个人用户来说,训练这种事成本太高了,真的不用太关注。


                  IP属地:陕西10楼2023-04-15 15:46
                  收起回复
                    3


                    来自Android客户端11楼2023-04-15 15:55
                    回复
                      不行,算力姑且不谈慢点就慢点也可以,显存这个硬上限就卡死消费级硬件了,现在想把模型塞进去起码20g显存,4090才16g吧


                      IP属地:河北来自Android客户端13楼2023-04-15 18:46
                      收起回复
                        我觉得你带不动


                        IP属地:云南来自Android客户端14楼2023-04-15 19:28
                        回复
                          7b模型推理至少要24g显存,全量训练很保守的设置下要70g,lora训练可以30g以内,这已经是能胜任对话的最小尺寸了;更小的模型没法看


                          IP属地:北京来自Android客户端15楼2023-04-15 21:03
                          回复