| 程序包 | 说明 |
|---|---|
| com.lark.oapi.service.document_ai.v1.model |
| 限定符和类型 | 方法和说明 |
|---|---|
LlmConfig.Builder |
LlmConfig.Builder.frequencyPenalty(Double frequencyPenalty)
默认0,>0惩罚模型输出同样的token,输出次数越多惩罚越大
示例值:0.0
|
LlmConfig.Builder |
LlmConfig.Builder.maxTokens(Integer maxTokens)
默认1024,最多生成多少个tokens
示例值:1
|
LlmConfig.Builder |
LlmConfig.Builder.messages(LlmMessage[] messages)
消息
示例值:
|
LlmConfig.Builder |
LlmConfig.Builder.messageType(LlmConfigMessageTypeEnum messageType)
消息类型
示例值:single-round
|
LlmConfig.Builder |
LlmConfig.Builder.messageType(String messageType)
消息类型
示例值:single-round
|
LlmConfig.Builder |
LlmConfig.Builder.model(LlmConfigModelEnum model)
模型名称
示例值:miniCPM
|
LlmConfig.Builder |
LlmConfig.Builder.model(String model)
模型名称
示例值:miniCPM
|
LlmConfig.Builder |
LlmConfig.Builder.n(Integer n)
默认1,每个query返回多少个预测结果
示例值:1
|
static LlmConfig.Builder |
LlmConfig.newBuilder() |
LlmConfig.Builder |
LlmConfig.Builder.presencePenalty(Double presencePenalty)
默认0,>0惩罚模型输出已经在输出中出现过的token
示例值:0.0
|
LlmConfig.Builder |
LlmConfig.Builder.temperature(Double temperature)
默认0,越大模型结果越发散,如果为0默认每次取概率最高的作为next token。
|
| 构造器和说明 |
|---|
LlmConfig(LlmConfig.Builder builder) |
Copyright © 2025. All rights reserved.