卖便当的少年吧 关注:2贴子:701
  • 7回复贴,共1


IP属地:广东1楼2016-07-11 20:46回复
    2L


    IP属地:广东2楼2016-07-11 20:46
    回复
      2026-01-11 03:20:33
      广告
      不感兴趣
      开通SVIP免广告
      np.newaxis
      实际为None值,用于扩展坐标轴
      例如
      X = np.arange(9).reshape(3,3)
      X.shape ----- (3,3)
      X[0].shape ---- (3,) 这里只列表
      如果要让x[0]进行矩阵运算还要reshape成(3,1)或者(1,3)
      这时候可以扩展一个axis
      X[None,:].shape ---- (1,3,3)
      X[:,None].shape ---- (3,1,3) 相当于插入一个维度
      :冒号自身代表一个坐标轴
      np.tile
      将给定的array按坐标轴进行重复repeat
      参数array 和 reps
      一般用在把一个列表变成多行的数据集
      tile([1,2,3],(3,1)] -----
      [ [ 1,2,3],
      [1,2,3],
      [1,2,3] ]


      IP属地:广东3楼2016-07-11 21:05
      回复
        linear_model.LinearRegression
        w0 + w1 x1 + w2 x2 + ... = y
        最小化 ||Xw - y||2
        其中w0 为截距 intercept_
        其他为权值 coef_
        调用fit函数拟合 ==== 参数 X[输入1,输入2] y[输出1 输出2]
        调用predict函数预测 ==== 参数 X
        np.mean( .. predict - real) ^2


        IP属地:广东4楼2016-07-11 21:16
        收起回复
          np.dot
          对于np.array类型来说
          如果是1维,则是内积
          如果是2维,则是矩阵相乘
          其他见help
          ====================
          LinearRegression用的是ordinary least squares,
          Xw=y ---- w = (XT X)-1 XT y
          如果X 的列是有线性相关性,那么 XT X 则不可逆(奇异) 后面造成结果对噪声敏感???(TODO)
          另一种解释则是
          由于w的取值没有限制,容易造成过拟合(模型复杂)
          加上w的惩罚项就是为了使得部分的wi趋向0
          ??理解:有一组数据,某两个特征f1,f2是线性相关的,那么通过f1就可以推出f2,自然不需要f2的干扰(f2的数据可能存在噪声)这个时候w2设为接近0的参数,使得其对最后的预测影响小。
          这个时候适合使用ridge Regression 在最优化项中添加了正则化a||w||2,当a=0的时候和一般ordinary回归一样。
          等价于 (XTX + lambda I)
          称之为 岭回归(当数据特征线性相关时,除此以外也可以用PCA)
          linear_model.Ridge (alpha = .5)
          其他fit predict类似


          IP属地:广东5楼2016-07-11 22:13
          回复