1.0.3 • Published 7 months ago
aecc-llm-chat v1.0.3
基于LLM的对话组件
使用说明
安装插件
npm install aecc-llm-chat
页面内使用示例
<template>
<div class="row chat-page">
<LLMChat :fesUrl="uri" :kbName="kbName" :model="model">
</LLMChat>
</div>
</template>
<script>
import {LLMChat} from "aecc-llm-chat"
export default {
name: "ai",
components: {
LLMChat
},
data () {
return {
uri: process.env.VUE_APP_SERVER_API + "/hello/chat",
kbName: "emergencyPlan",
model: "qwen2-instruct"
}
},
methods: {
}
}
</script>
<style scoped>
.chat-page {
height: calc(100vh - 20px);
background-color: darkgrey;
display: flex;
justify-content: center;
}
</style>
参数说明
参数 | 类型 | 描述 | 是否必填 |
---|---|---|---|
fesUrl | String | 后端接口地址 | 必填 |
kbName | String | RAG对话时的知识库名称,作为接口的请求参数传递给后端 | 否 |
model | String | 使用的模型名称,作为接口的请求参数传递给后端 | 否 |
mode | String | 对话类型,作为接口的请求参数传递给后端,默认值:local_kb | 否 |
topK | Number | 历史对话轮数,作为接口的请求参数传递给后端,默认值:3 | 否 |
scoreThreshold | Number | 作为接口的请求参数传递给后端,默认值:2 | 否 |
stream | Boolean | 作为接口的请求参数传递给后端,默认值:true | 否 |
temperature | Number | 作为接口的请求参数传递给后端,默认值:0.7 | 否 |
maxTokens | Number | 作为接口的请求参数传递给后端,默认值:0 | 否 |
promptName | String | 作为接口的请求参数传递给后端,默认值:default | 否 |
returnDirect | Boolean | 作为接口的请求参数传递给后端,默认值:false | 否 |