网页
资讯
视频
图片
知道
文库
贴吧
地图
采购
进入贴吧
全吧搜索
吧内搜索
搜贴
搜人
进吧
搜标签
日
一
二
三
四
五
六
签到排名:今日本吧第
个签到,
本吧因你更精彩,明天继续来努力!
本吧签到人数:0
一键签到
成为超级会员,使用一键签到
一键签到
本月漏签
0
次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行
补签
。
连续签到:
天 累计签到:
天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
04月06日
漏签
0
天
人工智能吧
关注:
121,665
贴子:
863,345
看贴
图片
吧主推荐
视频
游戏
11
回复贴,共
1
页
<<返回人工智能吧
>0< 加载中...
请问,决策树节点的信息熵怎么算(先问公式)?
只看楼主
收藏
回复
零零零零零夌
人脸辨识
1
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
不知为什么这位老师竟给出了两种计算公式(不知哪个对),而且就拿最上面那个节点做例子,不论套哪个公式都算不出熵等于1.582的结果,是不是这位老师错了,还是这边理解错了?
胡梦柯5
9S
12
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
某个样本集中的信息熵计算,是2为底对数不是自然对数,可使用numpy计算,即,entrop=-(p1*np.log2(p1)+p2*np.log2(p2)+……)
2026-04-06 22:52:24
广告
不感兴趣
开通SVIP免广告
胡梦柯5
9S
12
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
划分后,每个子集要本子集的熵再乘以一个子集占上层样本集的占比即子集出现概率,再上层减子层子集熵的和即为信息增益。
胡梦柯5
9S
12
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
决策树的信息增益传统方法上下层乘子集占比的方法不好,不如最上层乘以样本总数,下面各层子集去掉占比同样乘以该子集样本数,则信息增益熵减更直观。这事我写过论文发了的。
胡梦柯5
9S
12
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
你们老师写的两公式是一致的,不过一个是针对两个状态事件或说双类别的概率,那个两概率相加和为一,一个多状态事件或说多类别的概率,写sigma其实是英文写求和的简写法,意思是按不同类别概率求全部的和。唯一有问题的是用了ln,那结果就对不上了,例如抛硬币各占五成概率,熵的正确答案是1比特,用ln绝对求不出1,-0.5log2(0.5)-(1-0.5)log2(1-0.5)就刚好1,因为2为底求0.5的对数结果是负1。
孔曰成仁孟曰取义
T800
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
你怎么不去百度
登录百度账号
扫二维码下载贴吧客户端
下载贴吧APP
看高清直播、视频!
贴吧页面意见反馈
违规贴吧举报反馈通道
贴吧违规信息处理公示