网页
资讯
视频
图片
知道
文库
贴吧
地图
采购
进入贴吧
全吧搜索
吧内搜索
搜贴
搜人
进吧
搜标签
日
一
二
三
四
五
六
签到排名:今日本吧第
个签到,
本吧因你更精彩,明天继续来努力!
本吧签到人数:0
一键签到
成为超级会员,使用一键签到
一键签到
本月漏签
0
次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行
补签
。
连续签到:
天 累计签到:
天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
02月15日
漏签
0
天
显卡吧
关注:
7,853,270
贴子:
207,498,193
看贴
图片
吧主推荐
视频
游戏
首页
上一页
1
2
3
下一页
尾页
120
回复贴,共
3
页
,跳到
页
确定
<<返回显卡吧
>0< 加载中...
回复:预算两万,准备做深度学习,放在实验室用
只看楼主
收藏
回复
杨肉肉
默背吧规
6
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
杨肉肉
默背吧规
6
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
如图
2026-02-15 18:15:28
广告
不感兴趣
开通SVIP免广告
--酒赋--
GeForce
14
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
如图
兮子沫
PowerVR
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
这个预算确实有点紧,给不出配置,只能给你建议尽量满足吧。
1.单卡性能不用最高,但是建议多几张卡且显存大点(比如上面说的两张3090),因为多卡可以方便同门用,比如你用GPU0我用GPU1,其实现在科研实验室级别的项目,3090还是很够用的。
2.内存堆容量不用堆频率,虽然Linux系统不占内存,但PyCharm还是很占内存的,特别是多开,建议64g
3.CPU注重多核性能,非k的i7更合适。
4.买个好点的电源
5.不用有太大压力,2w的服务器定位就是给研究生做基础科研的,一般的transform肯定能跑的,这个价位稳定最重要
蒋李在酱菜
先看吧规
1
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
服务器,2万真不富裕,一个4090就1.5了
counterhttp
Matrox
13
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
4090+64g内存是必须的了,一个7b的模型都能吃30g内存
gfdsgdsgfdtime
先看吧规
1
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
90d咋想的,真不如3090*2了
WILSON
PowerVR
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
这么夸张吗
2026-02-15 18:09:28
广告
不感兴趣
开通SVIP免广告
疯狂的白翼
PowerVR
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
建议年底等新卡
dghbhb
熟记吧规
5
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
服务器2w也叫富裕?我的建议是跟阿里租一个得了
asdzxc14785
先看吧规
1
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
导师说了,没有条件也要创造条件
waadsjiaj
Wildcat
12
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
四块2280ti/两块3090
四条32g d4 3200
深度学习虽然主要靠显卡,但CPU也别太烂了,13700吧
大司马郭祀
Voodoo
11
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
两万块你不一定能买得到服务器啊,你买个图形工作站呗
空白之夏
Vivante
7
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
。。。怎么这么多3090 4090的
,深度计算直接咸鱼或者淘宝16g的v100,有nvlink,可以组8卡阵列,比什么3090 4090强不知道多少
登录百度账号
扫二维码下载贴吧客户端
下载贴吧APP
看高清直播、视频!
贴吧页面意见反馈
违规贴吧举报反馈通道
贴吧违规信息处理公示