检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
":"长江"}]} data:{"id":"e95727b0-fe09-4f18-96db-98354bd30e57","created":1687918751,"choices":[{"text":"三峡"}]} data:{"id":"e95727b0-fe09-4f18-
{ "projects": [ { "domain_id": "65382450e8f64ac0870cd180d14e684b", "is_domain": false, "
-3661-476d-a091-24e2f4432932", "created": 1687933186, "choices": [{"message": {"content": "东"}}]} data:{"id": "19efea5b-3661-476d-a091-24e2f4432932
"answers").get(0)).getString("content"); return LLMResp.builder().answer(content).build(); } catch (IOException e)
学习率(learning_rate) 0~1 1e-6~5e-4 学习率是在梯度下降的过程中更新权重时的超参数,过高会导致模型在最优解附近震荡,甚至跳过最优解,无法收敛,过低则会导致模型收敛速度过慢。 您可根据数据和模型的规模进行调整。
"ppl": 1.77809815678146e-36 } ], "usage": { "completion_tokens": 365, "prompt_tokens": 9,
{ "action_id": "c7669ea3-1abd-4d17-aa67-5df19bf3aba5", "message_id": "07daf8d9-38a8-460c-8068-3ff420e76c8d
执行arch命令查看) worker bms-panguXXXX CPU:鲲鹏(4*48Core@2.6GHz) 内存:24*64GB DDR4 RAM(GB) 本地磁盘:3*7.68TB NVMe SSD 扩展配置:2*100GE+8*200GE 类型:physical.kat2e.48xlarge
训练模型 自监督训练: 不涉及 有监督微调: 本场景采用了下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表2 微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 8 训练轮数(epoch) 4 学习率(learning_rate) 7.5e-
训练模型 自监督训练: 不涉及 有监督微调: 该场景采用了下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表1 微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 8 训练轮数(epoch) 6 学习率(learning_rate) 7.5e-
训练模型 自监督训练: 不涉及 有监督微调: 该场景采用下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表2 问答模型的微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 4 训练轮数(epoch) 3 学习率(learning_rate) 3e-