销售分析最后几天
第三天 1. csv文件的读取确实要比excel文件快很多; 2. 在panython3中的range就是python2中的xrange; 第四天 3. 发现300天的拟合出现了严重的准度问题,都出现负值了,首先我把负值都处理为0,情况仍然,然后,开始我怀疑是自己的predict超出了fit范围导致,但是发现predict的x即使和fit的相同,仍然y_predict非常离谱;接着,于是我怀疑是不是数据需要标准化一下。后来发现standardScaler之后,数据平稳性果然好了。 生成相同的数组信息 new_array = np.zeros((5,4)) for i in range(3): new_array[i] = np.array([0.25]*4) 第五天 scaler缩放问题 发现scaler有问题,之前是全部数据scaler,发现有问题,其实应该是每行数据进行缩放,这样才能够意义;而且这样还可以实现同维度缩放,可以把预测数据放回;否则会因为维度问题而无法缩放回来; 但是另外一个问题来了;就是对于预测问题这种缩放其实只是暂时的通过缩小数据进而缩小差距,提高了精准度;但是其实一旦缩放回去之后,即放大之后,发现差距还是很明显。我觉得预测问题其实标准化意义不是很大;分类领域缩放意义比较大,这个是因为在计算距离上面缩放可以减小距离因为量纲不同导致的变量权重影响;但是在回归问题上面则不同。 降维 数据1维升2维,通过reshape(-1,1)来实现;二维降一维可以通过np.array.flatten()实现。 还可以通过for语句方式实现: X=[[[1,2,3],[3,4,5]]] X = [x for y in X for x in y] print(X) X = [x for y in X for x in y] print(X) output: [[1,5]] [1,3,5] 第六天 后来我决定定位一下我们的系统为数据过滤 ravel() 将多维数组降维为一维数组。 z = np.array([[[[3]]],[[[3]]]]) z.ravel() array([3,3]) (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |