网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
02月15日漏签0天
显卡吧 关注:7,853,270贴子:207,498,193
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 首页 上一页 1 2 3 下一页 尾页
  • 120回复贴,共3页
  • ,跳到 页  
<<返回显卡吧
>0< 加载中...

回复:预算两万,准备做深度学习,放在实验室用

  • 只看楼主
  • 收藏

  • 回复
  • 杨肉肉
  • 默背吧规
    6
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼


  • 杨肉肉
  • 默背吧规
    6
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
如图


2026-02-15 18:15:28
广告
不感兴趣
开通SVIP免广告
  • --酒赋--
  • GeForce
    14
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
如图




  • 兮子沫
  • PowerVR
    10
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
这个预算确实有点紧,给不出配置,只能给你建议尽量满足吧。
1.单卡性能不用最高,但是建议多几张卡且显存大点(比如上面说的两张3090),因为多卡可以方便同门用,比如你用GPU0我用GPU1,其实现在科研实验室级别的项目,3090还是很够用的。
2.内存堆容量不用堆频率,虽然Linux系统不占内存,但PyCharm还是很占内存的,特别是多开,建议64g
3.CPU注重多核性能,非k的i7更合适。
4.买个好点的电源
5.不用有太大压力,2w的服务器定位就是给研究生做基础科研的,一般的transform肯定能跑的,这个价位稳定最重要


  • 蒋李在酱菜
  • 先看吧规
    1
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
服务器,2万真不富裕,一个4090就1.5了


  • counterhttp
  • Matrox
    13
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
4090+64g内存是必须的了,一个7b的模型都能吃30g内存


  • gfdsgdsgfdtime
  • 先看吧规
    1
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
90d咋想的,真不如3090*2了


  • WILSON
  • PowerVR
    10
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
这么夸张吗


2026-02-15 18:09:28
广告
不感兴趣
开通SVIP免广告
  • 疯狂的白翼
  • PowerVR
    10
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
建议年底等新卡


  • dghbhb
  • 熟记吧规
    5
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
服务器2w也叫富裕?我的建议是跟阿里租一个得了


  • asdzxc14785
  • 先看吧规
    1
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
导师说了,没有条件也要创造条件


  • waadsjiaj
  • Wildcat
    12
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
四块2280ti/两块3090
四条32g d4 3200
深度学习虽然主要靠显卡,但CPU也别太烂了,13700吧


  • 大司马郭祀
  • Voodoo
    11
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
两万块你不一定能买得到服务器啊,你买个图形工作站呗


  • 空白之夏
  • Vivante
    7
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
。。。怎么这么多3090 4090的,深度计算直接咸鱼或者淘宝16g的v100,有nvlink,可以组8卡阵列,比什么3090 4090强不知道多少


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 首页 上一页 1 2 3 下一页 尾页
  • 120回复贴,共3页
  • ,跳到 页  
<<返回显卡吧
分享到:
©2026 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示