检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
务提供的在线推理资产。 部署方式 选择“在线部署”,即将算法部署至盘古大模型服务提供的资源池中。 推理资产 选择“已购资产”。 限时免费:使用免费的推理资源,仅支持部署一个实例。 已购资产:由用户购买的推理资源,实际可用推理单元由购买时的数量决定。 实例数 实例数越大,能够同时处理的请求数量越多。
son”。 X-Auth-Token:用户Token,可选,当使用Token方式认证时,必须填充该字段。用户Token请参考认证鉴权中的“Token认证”。 公有云API同时支持使用AK/SK认证,AK/SK认证是使用SDK对请求进行签名,签名过程会自动往请求中添加Authori
run(sessionId, "会议室更换为 // 第三轮回复:” A02会议室在今天下午2点到4点已经被使用了,无法预订。您是否需要更换其他时间或者其他会议室?” log.info("机器人:" + session3th.getCurrentMessage()
以及用户训练后的模型。训练后的模型只有在使用“在线部署”功能时,才可以使用本章节提供的方法进行调用。本章节将介绍如何使用Postman调用API,仅供测试使用。 前提条件 使用API调用模型前,请先完成盘古大模型服务订购和开通操作。 使用Postman调用API 获取API请求地址。
览器)选择。 301 Moved Permanently 永久移动,请求的资源已被永久的移动到新的URI,返回信息会包括新的URI。 302 Found 资源被临时移动。 303 See Other 查看其他地址,使用GET和POST请求查看。 304 Not Modified
和各项云服务技术的安全功能和性能本身,也包括运维运营安全,以及更广义的安全合规遵从。 租户:负责云服务内部的安全,安全地使用云。华为云租户的安全责任在于对使用的IaaS、PaaS和SaaS类云服务内部的安全以及对租户定制配置进行安全有效的管理,包括但不限于虚拟网络、虚拟主机和访客
模型刚开始训练时,如果选择一个较大的学习率,可能导致模型训练不稳定。选择使用warmup热身的方式,可以使开始训练的热身阶段内学习率较小,模型可以慢慢趋于稳定,待模型相对稳定后再逐渐提升至预设的最大学习率进行训练。使用热身可以使得模型收敛速度更快,效果更佳。 当前盘古-NLP-N4-基模型支持自监督训练。
行内容审核,帮助客户降低业务违规风险。 授权使用华为云内容审核,有效拦截大模型输入输出的有害信息,保障模型调用安全。 授权后,在调用盘古大模型能力时,模型的输入和输出将分别调用一次内容审核服务,该服务为付费项,用户可按需购买。 若不使用,您也可以自行对接第三方内容审核服务。关于大
通过快速入门引导,您将快速熟悉平台的核心能力,探索多种应用场景,从而更好地发挥盘古大模型在实际业务中的价值。 快速入门 使用能力调测与盘古NLP大模型进行对话问答 使用盘古加工算子构建单轮问答数据集 快速创建盘古图片Caption数据标注任务 创建盘古NLP大模型SFT任务 调用盘古NLP大模型API实现文本对话
vector_api.add_docs(bulk_list) 通过vectorStoreConfig判断使用CSS的插件模式和非插件模式。如果配置了embedding模型,则使用非插件模式,否则使用插件模式。注意,在非插件模式下,vectorFields有且只有1个。 父主题: 配置Memory(Python
Cache缓存是一种临时存储数据的方法,它可以把常用的数据保存在内存或者其他设备中,当需要访问这些数据时,无需再去原始的数据源查找,而是直接从缓存中获取,从而节省时间和资源。 Cache缓存有以下几种操作: 初始化:指定缓存使用哪种存储方式,例如,使用内存型缓存可以设置为memory_cache = Caches
build()) .build()); 通过vectorStoreConfig判断使用CSS的插件模式和非插件模式,如果配置了embedding模型,则使用非插件模式;否则使用插件模式。注意,在非插件模式下,vectorFields有且只有1个。 父主题: 配置Memory(Java
说明 个人隐私 校验数据中是否存在个人隐私信息,例如,身份证号、手机号、固定电话、Email地址、护照号、车牌号、军官证、车架号、GPS地址、IP地址、MAC地址和IMEI码等。 敏感关键词 校验数据中是否存在敏感关键字,如涉政信息。 表4 合规度状态说明 合规数据量 合规度颜色 是否可用于训练
存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 用户开通云审计服务并创建、配置追踪器后,CTS可记录用户使用盘古的管理事件和数据事件用于审计。 CTS的详细介绍和开通配置方法,请参见CTS快速入门。 父主题: 安全
后付费 先使用再付费。 计费公式:实际消耗的Token数量 * Token单价 Token计算精确到1K Tokens,不足1K Tokens的部分舍去,按小时自动扣费。 变更配置 盘古NLP大模型的模型订阅服务和推理服务默认采用包周期计费,训练服务则默认采用按需计费。使用周期内不支持变更配置。
ID和私有访问密钥一起使用,对请求进行加密签名。 SK(Secret Access Key):与访问密钥ID结合使用的密钥,对请求进行加密签名,可标识发送方,并防止请求被修改。 使用AK/SK认证时,您可以基于签名算法使用AK/SK对请求进行签名,也可以使用专门的签名SDK对请求
常见问题 使用java sdk出现第三方库冲突 当出现第三方库冲突的时,如Jackson,okhttp3版本冲突等。可以引入如下bundle包(3.0.40-rc版本后),该包包含所有支持的服务和重定向了SDK依赖的第三方软件,避免和业务自身依赖的库产生冲突: <dependency>
模型刚开始训练时,如果选择一个较大的学习率,可能导致模型训练不稳定。选择使用warmup热身的方式,可以使开始训练的热身阶段内学习率较小,模型可以慢慢趋于稳定,待模型相对稳定后再逐渐提升至预设的最大学习率进行训练。使用热身可以使得模型收敛速度更快,效果更佳。 模型保存步数 1000 1000~2000中10的倍数
都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 使用推理SDK章节示例代码均以ak和sk保存在环境变量中来实现身份验证。 登录“我的凭证”页面,获取“IAM用户名”、“账号名”以及待使用区域的“项目ID”。调用服务时会用到这些信息,请提前保存。
SDK) Cache缓存是一种临时存储数据的方法,它可以把常用的数据保存在内存或者其他设备中,这样当需要访问这些数据时,就不用再去原始的数据源查找,而是直接从缓存中获取,从而节省时间和资源。 对LLM使用缓存: LLM llm = LLMs.of(LLMs.PANGU, llmConfig);