推荐系统 RES-排序策略-离线排序模型:Logistic Regression (LR)

时间:2024-09-07 16:00:55

Logistic Regression (LR)

LR算法是一种广义的线性回归分析模型,常用于数据挖掘、疾病自动诊断、经济预测等领域。LR算法通过在线性回归的基础上叠加一个sigmoid激活函数将输出值映射到[0,1]之间,是机器学习领域里常用的二分类算法。

表1 逻辑斯蒂回归参数说明

参数名称

说明

名称

自定义策略名称,由中文、英文、数字、下划线、空格或者中划线组成,并且不能以空格开始和结束,长度为1~64个字符。

描述

对于该策略的描述信息。

最大迭代轮数

模型训练的最大迭代轮数,默认50。

提前终止训练轮数

在测试集上连续N轮迭代AUC无提高时,迭代停止,训练提前结束,默认5。

初始化方法

模型参数的初始化方法。

  • normal:正态分布

    平均值:默认0

    标准差:0.001

  • uniform :均匀分布

    最小值:默认-0.001,均匀分布的最小值,必须小于最大值。

    最大值:默认0.001,均匀分布的最大值,必须大于最小值。

  • xavier:

    初始化初始值为 均值为0,方差为 Var(wi)=1/nin 的均匀分布(高斯或者随机分布)。其中 nin 是该神经元的输入数目。

优化器类型

  • grad:梯度下降算法
    • 学习率:优化算法的参数,决定优化器在最优方向上前进步长的参数。默认0.001。
  • adam:自适应矩估计算法
    结合AdaGrad和 RMS Prop两种优化算法的优点,对梯度的一阶矩估计(First Moment Estimation,即梯度的均值)和二阶矩估计(Second Moment Estimation,即梯度的未中心化的方差)进行综合考虑,依次计算出更新步长。
    • 学习率:优化算法的参数,决定优化器在最优方向上前进步长的参数。默认0.001。
    • 数值稳定常量:为保证数值稳定而设置的一个微小常量。默认1e-8。
  • adagrad:自适应梯度算法
    对每个不同的参数调整不同的学习率,对频繁变化的参数以更小的步长进行更新,而稀疏的参数以更大的步长进行更新。
    • 学习率:优化算法的参数,决定优化器在最优方向上前进步长的参数。默认0.001。
    • 初始梯度累加和:梯度累加和用来调整学习步长。默认0.1。
  • ftrl:Follow The Regularized Leader
    适用于处理超大规模数据的,含大量稀疏特征的在线学习的常见优化算法。
    • 学习率:优化算法的参数,决定优化器在最优方向上前进步长的参数。默认0.1。
    • 初始梯度累加和:梯度累加和用来调整学习步长。默认0.1。
    • L1正则项系数:叠加在模型的1范数之上,用来对模型值进行限制防止过拟合。默认0。
    • L2正则项系数:叠加在模型的2范数之上,用来对模型值进行限制防止过拟合。默认0。

L2正则项系数

叠加在模型的2范数之上,用来对模型值进行限制防止过拟合。默认0。

正则损失计算方式

正则损失计算当前有两种方式。

  • full:指针对全量参数计算。
  • batch:则仅针对当前批数据中出现的参数计算
    说明:

    batch模式计算速度快于full模式。

重新训练

对第一次训练无影响,仅影响任务重跑。

  • “是”:清空上一轮的模型结果后重新开始训练。
  • “否”:导入上一轮的训练结果继续训练。适用于欠拟合的情况。

批量大小

一次训练所选取的样本数。

训练数据集切分数量

将整个数据集切分成多个子数据集,依次训练,每个epoch训练一个子数据集。

support.huaweicloud.com/usermanual-res/res_21_0034.html