这本来是我回答的一个问题:有什么好的模型可以做高精度的时间序列预测呢? - BINGO Hong的回答 - 知乎 https://www.zhihu.com/question/21229371/answer/533770345
但觉得在那个答案下一直更新好麻烦,干脆就移到自己主页文章好了。
以后会在这里更新,原答案不更新了。时间序列基本规则法-周期因子法提取时间序列的周期性特征进行预测,参考:时间序列规则法快速入门计算周期因子factors计算base预测=base*factors观察序列,当序列存在周期性时,可以用周期因子法做为baseline在天池竞赛-资金流入流出预测-挑战Baseline-天池大赛-阿里云天池,周期因子可以取得110分+的成绩,排名进500妥妥的。(后面有机会再贴代码)
2. 线性回归-利用时间特征做线性回归提取时间的周期性特点做为特征,此时训练集每条样本为"时间特征->目标值",时间序列的依赖关系被剔除,不需要严格依赖滑窗截取训练样本。常见是将时间用0-1哑变量表达,有以下若干种特征:将星期转化为了0-1变量,从周一至周天,独热编码共7个变量将节假日转化为0-1变量,视具体节假日数目,可简单分为两类,"有假日"-"无假日",独热编码共2个变量;或赋予不同编码值,如区分国庆、春节、劳动节等使用1、2、3表示将月初转化为0-1变量,简单分两类表示为"是月初"-"非月初",共2个特征类似的月中、月初可以转化为0-1变量控制时间粒度,区分是weekday or weekend观察序列,当序列存在周期性时,线性回归也可做为baseline在天池竞赛-资金流入流出预测-挑战Baseline-天池大赛-阿里云天池,线性回归可以取得100分+的成绩,应该还没到500,多调节下特征就能进去了。
3.传统时序建模方法,ARMA/ARIMA等线性模型。参考:写给你的金融时间序列分析:基础篇 自回归/滑动平均阶数判断 Identifying the orders of AR and MA terms in an ARIMA model 列举了11条一般原则,其中提到:差分方法可消除正相关但同时引入负相关AR项可消除正相关,MA项消除负相关AR项和MA项作用会相互抵消,通常包含两种要素时可尝试减少某项,避免过拟合
4.时间序列分解,使用加法模型或乘法模型将原始序列拆分为4部分。拆分为4部分:长期趋势变动T、季节变动S(显式周期,固定幅度、长度的周期波动)、循环变动C(隐式周期,周期长不具严格规则的波动)和不规则变动I。参考:时间序列分解法 - MBA智库百科 时间序列分解乘法模型中SCI均为比例,加法模型中SCI与T有相同量纲。循环变动C较为复杂,短期不体现或归入趋势变化中。两类平滑方法:以滑动平均作为平滑方法提取趋势的seasonal_decompose朴素分解。statsmodels.tsa.seasonal.seasonal_decompose以鲁棒局部加权回归作为平滑方法的STL分解。statsmodels.tsa.seasonal.STL季节性分析。数据中有季节性因素,与整体趋势相比显得比较弱。原文: Investigating Seasonality in a Time Series: A Mystery in Three Parts ;中文:干货 | 季节性的分析才不简单,小心不要在随机数据中也分析出季节性 在天池竞赛-资金流入流出预测-挑战Baseline-天池大赛-阿里云天池,时间序列分解方法也能取得很好的成绩。(后面有机会试试这种方法)【天池大数据赛题解析】资金流入流出预测(附Top4答辩ppt) - 止战 - 博客园
5. 特征工程着手,时间滑窗改变数据的组织方式,使用xgboost/LSTM模型/时间卷积网络等。参考:kaggle商品销量预测1st的思路:特征工程+LGBM/LSTM, 1st place solution | Kaggle kaggle商品销量预测5th的思路:特征工程+LGBM/CNN-DNN/seq2seq,5th Place Solution | Kaggle
6. 转化为监督学习数据集,使用xgboot/LSTM模型/时间卷积网络/seq2seq(attention_based_model)。参考:如何用Python将时间序列转换为监督学习问题 - 云+社区 - 腾讯云 Keras中带LSTM的多变量时间序列预测 - 云+社区 - 腾讯云 时间卷积网络(TCN) 总结:时序模型不再是递归网络(RNN) 的天下,但作为信息粗暴提取的一种方法,请不要神话CNN !算法上可以引入注意力机制的seq2seq模型,见过纯粹的seq2seq解法,结合注意力机制的还没见过开源代码(可能是搜索不够仔细)。seq2seq代码:Kaggle-Competition-Favorita/seq2seq注意力机制资料:台大-李宏毅《Attention_based_model》 他们只说注意力机制(Attention Mechanism)不练,还是我来给大家撸代码讲解盛源车:真正的完全图解Seq2Seq Attention模型 《Attention is All You Need》浅读(简介+代码) 川陀学者:Attention机制详解(二)——Self-Attention与Transformer The Illustrated Transformer Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models With Attention)
7.Facebook-prophet,类似于STL分解思路,因为觉得在控制程度和可解释性上比传统时序模型更有优势,所以单独列车。参考:官网说明(英文)官网notbook(英文)中文推荐 @张戎 的文章,从原理到使用都有介绍,很良心。张戎:Facebook 时间序列预测算法 Prophet 的研究个人理解,想进一步用好,可以好好看看论文和官网,有空撸遍python的源码理解prior_scale在代码中如何实现控制趋势项、季节项和节假日项对于趋势项参数changepoint_range、changepoint_prior_scale如何影响模型拟合和泛化程度趋势项中的Uncertainty-Intervals(interval_width参数)如何在预测结果使用论文中的"Simulated Historical Forecasts"对应prophet的Diagnostics工具,可以利用该工具做时间序列的交叉验证评价模型准确程度,如何利用该工具调整模型
8. 深度学习网络,结合CNN+RNN+Attention,作用各不相同互相配合。目前也只是看了论文,有代码的顺便给出代码链接,代码还没细看。
主要设计思想:CNN捕捉短期局部依赖关系RNN捕捉长期宏观依赖关系Attention为重要时间段或变量加权AR捕捉数据尺度变化(没太搞懂啥意思~)
方法:LSTNet: 适用于自相关图表现出有明显周期的时间序列,否则与传统方法相当。LSTNet-Pytorch、LSTNet-Keras、LSTNet-Gluon(Mxnet)。TPA-LSTM: 改进了attention机制,侧重选择关键变量,而非选择时间步;实验效果说是对周期不明显的时间序列也能有不错效果。TPA-LSTM-Tensorflow
代码的坑填上。LSTNet代码解读, BINGO Hong:LSTNet详解 TPA-LSTM注意力机制, BINGO Hong:TPA注意力机制(TPA-LSTM)
9.将时间序列转化为图像,再应用基于卷积神经网络的模型做分析Gramian Angular Field (格拉姆角场GAF)方法描述:将笛卡尔坐标系下的一维时间序列,转化为极坐标系表示,再使用三角函数生成GAF矩阵。计算过程:数值缩放:将笛卡尔坐标系下的时间序列缩放到[0,1]或[-1,1]区间极坐标转换:使用坐标变换公式,将笛卡尔坐标系序列转化为极坐标系时间序列角度和/差的三角函数变换:若使用两角和的cos函数则得到GASF,若使用两角差的cos函数则得到GADF优势:极坐标中半径表示时间戳,角度表示时间序列数值通过半径r保持序列的时间依赖性极坐标保留时间关系的绝对值(翻译得不好,大家可看原文:polar coordinates preserve absolute temporal relations)每个序列产生唯一的极坐标映射图可通过GAF矩阵的主对角线,恢复笛卡尔坐标下的原始时间序列缺点:当序列长度为n时,产生的GAF矩阵大小为n*n,因此作者建议使用分段聚合近似(Piecewise Aggregation Approximation)保留序列趋势同时减少序列大小。参考:GAF方法的具体介绍见《Imaging Time-Series to Improve Classification and Imputation》 GAF的使用工具见 案例:波动率预测:基于CNN的图像识别策略(附代码) - 云+社区 - 腾讯云Short Time Fourier Transform (短时傅里叶变换STFT)通用的语音信号处理工具。在我毕业论文里就有使用到,论文还没上知网,链接后面再补吧。将时间序列转为时频图像。
工具:tslearn:开源的时间序列机器学习python工具包tsfresh:开源的时间序列特征提取python工具包pyts:开源的时间序列分类Python工具包。提供预处理工具及若干种时间序列分类算法
难点:理解时间序列预测问题是要用历史数据预测未来数据时间序列问题的训练集、测试集划分特征工程方法及过程(方法2的过程很有趣)如何转化为监督学习数据集LSTM计算过程理解,包括输入输出维度、参数数量等seq2seq过程的理解,decoder实现attention注意力机制的原理及实现,包括encoder-decoder attention, self attention, multi-head attention等时间卷积网络的含义,顾名思义就是将CNN方法用于时间序列中,主要是dilated-convolution and causal-convolutionprophet预测原理,各参数对模型拟合效果、泛化效果的影响TPA侧重选择关键变量时间序列基本规则法中周期因子得计算过程传统方法如周期因子、线性回归、ARMA等的预测结果表现为,预测趋势大致正确,但对波动预测不理想,体现在波动的幅度差异、相位偏移。时间序列分解方法。理解加法模型和乘法模型,判断分解模型的选取及分解技巧。
2018.11.26更新,添加第二点特征工程的kaggle第5名方案解题思路,补充acf和pacf阶数选取
2018.12.30更新,添加季节性分析问题
2019.1.20更新,添加prophet框架介绍及个人理解
2019.3.3更新,添加seq2seq模型及相应的注意力机制资料
2019.3.28更新,补充两个时间序列工具tslearn、tsfresh
2019.4.8更新,补充LSTNet、TPA-LSTM,代码坑后面填
2019.4.20更新,LSTNet、TPA-LSTM代码填坑
2019.6.2更新,时间序列规则法-周期因子法
2019.6.20更新,线性回归方法预测
2019.8.9更新,时间序列分解法
2020.4.28更新,利用GAF方法将时间序列转化为图像;补充时间序列工具pyts;STFT方法留个坑,后面在填
持续更新~转载请联系我~欢迎点赞!欢迎咨询!
转载请注明:pg电子·(中国)官方网站 » 感悟评价 » 时间序列预测方法总结 - 知乎
版权声明
本文仅代表作者观点,不代表B5编程立场。
本文系作者授权发表,未经许可,不得转载。
发表评论