...神经网络、Lasso回归、线性回归、随机森林、ARIMA股票价格
Lasso模型因为自身带有变量选择作用,应用在未降维的数据上的效果要比降维数据效果要好,因为在主成分分析降维时会损失一部分原始信息。最终模型选择变量如下所示:模型预测结果也较好,平均MSE为0.000681,平均MAE为0.0202。最终因为输入天数的确定具有主观性,因此尝试改变输入天数与训练集大小来观察BP神经网络模型的稳定性。
【信达金工于明明团队】全领域深度报告合集
在基金超低配的维度上:我们从朴素的半年报、年报行业持仓,然后通过“季度模拟组合”+“Lasso回归”+“信达金工基金标签”等多种工具加持下得到月频的行业轮动基金的行业配置,再以改进版Brinson挑选了全行业轮动绩优基金,每步之间效果提升显著。多头超额年化收益从3.93%提升至7.48%最后达到9.41%,多头超额收益波动比从0.4...
XGBoost中的正则化的9个超参数
Cover是hessians的总和,而hessian是损失函数相对于预测值的二阶导数。我们以一个简单的损失为例,对于均方损失函数的回归问题,hessian的值为1。所以在这种情况下,cover基本上是每个节点中的数据点数量。因此min_child_weight是每个节点中应该存在的最小数据点数量。它对每个节点设置以下条件:cover>min_child_weight。
汽车经销商客户流失预警:逻辑回归(LR)、LASSO、逐步回归
AUC的值越大,说明模型能够牺牲更少的错误预测换取更大的正确预测,模型的预测效果越好。三种方法训练出来的逻辑回归模型在训练集中的AUC值比较如下表:考虑到没有进行LASSO变量压缩的模型存在一定的多重共线性,许多变量不显著,而基于AIC值的逐步回归筛选方法能够最大让变量通过显著性检验,为了保障模型的泛化...
r语言中对LASSO回归,Ridge岭回归和弹性网络Elastic Net模型实现
该算法非常快,并且可以利用输入矩阵中的稀疏性x。它适合线性,逻辑和多项式,泊松和Cox回归模型。可以从拟合模型中做出各种预测。相关视频它也可以拟合多元线性回归。glmnet解决以下问题在覆盖整个范围的λ值网格上。这里l(y,η)是观察i的负对数似然贡献;例如对于高斯分布是。_弹性网络_惩罚由α控制,LASSO(α=...
临床研究|老年患者肺癌根治术后谵妄的危险因素及列线图预测模型的...
采用Lasso回归模型对POD相关变量包括一般人口学资料、疾病基本特征以及围术期指标等15个分类变量进行筛选,结果显示,随着λ值增大,模型压缩程度越大,进入模型的自变量个数减少,当λ取最小值0.0063时,在15个特征变量的基础上缩减为10个潜在的预测因素,包括年龄、BMI、吸烟、CCI评分、MMSE评分、PNI、病理类型、ASA分级...
...术前神经心理学评估开发脑深部刺激术后语言流畅性的预测模型
表2.语言流畅性预测的模型性能LASSO,最小绝对值收敛和选择算子;MAE,中值绝对误差;SVR,支持向量回归。图2.术后语言流畅性评分预测。根据最佳模型预测的术后语言流畅性得分与术后实际得分进行对比,术后实际得分:A.动作(SVR)、B.语义(SVR)和C.字母流畅性(最小绝对值收敛和选择算子)。SVR,支持向量回归。
广义线性回归模型估计:所有线性回归的大仓库
gaussian是glmnet函数中的默认函数簇,它本质上是带正则项的多元线性回归的估计问题。3.1.1优化目标假定观测值以及相应变量。高斯簇的目标函数可以写成如下形式:其中λ≥0是模型复杂度参数;0≤α≤1,当α=0时为岭回归,当α=1时为lasso回归,0<α<1则为两者的折中。
XGBoost 2.0:对基于树的方法进行了重大更新
在GBDT中,在构建每棵树并进行预测之后,计算预测值与实际值之间的残差(或误差)。这些残差本质上是梯度的一种形式——表明损失函数是如何随其参数变化的。然后一个新的树适合这些残差,而不是原始的结果变量,有效地采取“步骤”,利用梯度信息最小化损失函数。这个过程是重复的,迭代地改进模型。
人工智能与量化投资--深度学习前沿技术在股价预测中的应用
傅立叶变换-除了每日收盘价,我们还将创建傅里叶变换,以概括多个长期和短期趋势。使用这些变换,我们将消除大量噪声(随机的)并创建真实股票移动的近似值。趋势近似可以帮助LSTM网络更准确地选择其预测趋势。自回归整合移动平均线(ARIMA)-这是预测时间序列数据未来值的最流行技术之一(在神经网络流行之前)。我们把...