1.0.3 • Published 1 year ago
aecc-llm-chat v1.0.3
基于LLM的对话组件
使用说明
安装插件
npm install aecc-llm-chat页面内使用示例
<template>
<div class="row chat-page">
<LLMChat :fesUrl="uri" :kbName="kbName" :model="model">
</LLMChat>
</div>
</template>
<script>
import {LLMChat} from "aecc-llm-chat"
export default {
name: "ai",
components: {
LLMChat
},
data () {
return {
uri: process.env.VUE_APP_SERVER_API + "/hello/chat",
kbName: "emergencyPlan",
model: "qwen2-instruct"
}
},
methods: {
}
}
</script>
<style scoped>
.chat-page {
height: calc(100vh - 20px);
background-color: darkgrey;
display: flex;
justify-content: center;
}
</style>参数说明
| 参数 | 类型 | 描述 | 是否必填 |
|---|---|---|---|
| fesUrl | String | 后端接口地址 | 必填 |
| kbName | String | RAG对话时的知识库名称,作为接口的请求参数传递给后端 | 否 |
| model | String | 使用的模型名称,作为接口的请求参数传递给后端 | 否 |
| mode | String | 对话类型,作为接口的请求参数传递给后端,默认值:local_kb | 否 |
| topK | Number | 历史对话轮数,作为接口的请求参数传递给后端,默认值:3 | 否 |
| scoreThreshold | Number | 作为接口的请求参数传递给后端,默认值:2 | 否 |
| stream | Boolean | 作为接口的请求参数传递给后端,默认值:true | 否 |
| temperature | Number | 作为接口的请求参数传递给后端,默认值:0.7 | 否 |
| maxTokens | Number | 作为接口的请求参数传递给后端,默认值:0 | 否 |
| promptName | String | 作为接口的请求参数传递给后端,默认值:default | 否 |
| returnDirect | Boolean | 作为接口的请求参数传递给后端,默认值:false | 否 |