网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
01月21日漏签0天
教育培训吧 关注:167,931贴子:288,373
  • 看贴

  • 图片

  • 吧主推荐

  • 游戏

  • 0回复贴,共1页
<<返回教育培训吧
>0< 加载中...

数据分析 之数据源的重要性

  • 只看楼主
  • 收藏

  • 回复
  • cpda2014
  • 中级粉丝
    2
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
如今,数据分析在企业应用的地位越来越重要,同时,在介绍大数据和云计算的文章中,几乎都会提出足够多的数据是实现技术的前提,并且数据越多越全面,得出的分析结果也就越准确。说到这里,小编就不敢苟同了!在当前现有的技术不能保证数据来源准确度的情况下,大量的数据反而会加大分析的难度,反而会降低决策的准确性。最典型和著名的一个例子就是谷歌预测流感趋势失败的案例。
谷歌公司发现流感疫情的发展状态可以和某些关键词被搜索的频率很好的联系起来,因此建立了“谷歌流感趋势”(GFT)模型,GFT将大量关于流感的谷歌搜索数据进行统计汇总,经过分析之后与美国疾病防控中心的监测数据进行比对,其分析结果与美国疾病防控中心的监测数据相差近两倍。尽管谷歌不断调整算法,但仍不能保证结果的准确性。这就说明一个重要问题:数据源问题。谷歌是基于搜索引擎上的搜索词来分析的,许多搜索词都是无效的,没有任何意义的,所以它们不能真的代表流感趋势,但它们同样被计算在内。这就造成了结果的严重偏差。
所以在做预测等项目的数据分析的项目数据分析师们,要特别注意在做数据分析时一定不要盲目的去追求数据量的大,对大量不能保证准确来源的数据进行分析很可能会出现偏颇!


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 0回复贴,共1页
<<返回教育培训吧
分享到:
©2026 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示