检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
每阶特征交互所选择的group数量,数量需对应最大交互阶数。默认10,60,80。 特征交互层惩罚项系数 特征交互层输出值的惩罚项系数,用来防止过拟合。默认0.0001,0.0001,0.0001。 神经网络结构 神经网络的层数与每一层的神经元节点个数。默认400,400,400。 激活函数 神经网络中
"mode":"keywords", "title":[ "在贵州黔东南苗族侗族自治州台江县革一镇乡下,有一座两层的小木屋,和这里的大部分木质吊脚楼一样,小木屋依山而建。但这座木屋又很“特别”,它有一个“山东哥哥助学工作站”的名字。这座木屋,凝聚了“山东
用户的长期兴趣和短期兴趣进行个性化推荐。 RES提供一站式媒资推荐解决方案,支持针对行为数据实时生成用户的兴趣标签,提供离线、近线、在线三层计算,完成千人千面的个性化媒资推荐。 场景优势 可以实现7*24小时,智能学习用户行为,构建兴趣模型。 兴趣文章命中率高,用户粘性增强,PV增幅明显。
org 是 String 提取到的组织结果。 示例 请求示例 { "text": "在贵州黔东南苗族侗族自治州台江县革一镇乡下,有一座两层的小木屋,和这里的大部分木质吊脚楼一样,小木屋依山而建。但这座木屋又很“特别”,它有一个“山东哥哥助学工作站”的名字。这座木屋,凝聚了“山东
分解后的特征向量的长度。取值范围[1,100],默认10。 神经网络结构 (architecture) 是 List[Int] 神经网络的层数与每一层神经元节点个数。每一层神经元节点数不大于5000,神经网络层数不大于10。默认为400,400,400。 神经元值保留概率 (value_keep_probability)
regular_loss_compute_mode 否 String 正则损失计算方式。 embed_l2_regularization 否 Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization 否 Double wide部分L2正则化系数。 最小值:0
regular_loss_compute_mode 否 String 正则损失计算方式。 embed_l2_regularization 否 Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization 否 Double wide部分L2正则化系数。 最小值:0
regular_loss_compute_mode 否 String 正则损失计算方式。 embed_l2_regularization 否 Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization 否 Double wide部分L2正则化系数。 最小值:0
regular_loss_compute_mode 否 String 正则损失计算方式。 embed_l2_regularization 否 Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization 否 Double wide部分L2正则化系数。 最小值:0
regular_loss_compute_mode 否 String 正则损失计算方式。 embed_l2_regularization 否 Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization 否 Double wide部分L2正则化系数。 最小值:0
regular_loss_compute_mode String 正则损失计算方式。 embed_l2_regularization Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization Double wide部分L2正则化系数。 最小值:0
regular_loss_compute_mode 否 String 正则损失计算方式。 embed_l2_regularization 否 Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization 否 Double wide部分L2正则化系数。 最小值:0
regular_loss_compute_mode 否 String 正则损失计算方式。 embed_l2_regularization 否 Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization 否 Double wide部分L2正则化系数。 最小值:0
regular_loss_compute_mode String 正则损失计算方式。 embed_l2_regularization Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization Double wide部分L2正则化系数。 最小值:0
regular_loss_compute_mode String 正则损失计算方式。 embed_l2_regularization Double 隐向量层L2正则化系数。 最小值:0 最大值:1 wide_l2_regularization Double wide部分L2正则化系数。 最小值:0
说明: batch模式计算速度快于full模式。 隐向量长度 分解后的表示特征的向量的长度。默认10。 神经网络结构 神经网络的层数与每一层的神经元节点个数。默认400,400,400。 激活函数 神经网络中的激活函数,将一个(或一组)神经元的值映射为一个输出值。 relu tanh