1.0.3 • Published 7 months ago

aecc-llm-chat v1.0.3

Weekly downloads
-
License
ISC
Repository
-
Last release
7 months ago

基于LLM的对话组件

使用说明

安装插件

npm install aecc-llm-chat

页面内使用示例

<template>
    <div class="row chat-page">
        <LLMChat :fesUrl="uri" :kbName="kbName" :model="model">
        </LLMChat>
    </div>
</template>

<script>
import {LLMChat} from "aecc-llm-chat"
export default {
    name: "ai",
    components: {
        LLMChat
    },
    data () {
        return {
            uri: process.env.VUE_APP_SERVER_API + "/hello/chat",
            kbName: "emergencyPlan",
            model: "qwen2-instruct"
        }
    },
    methods: {
        
    }
}
</script>

<style scoped>
.chat-page {
    height: calc(100vh - 20px);
    background-color: darkgrey;
    display: flex;
    justify-content: center;
}
</style>

参数说明

参数类型描述是否必填
fesUrlString后端接口地址必填
kbNameStringRAG对话时的知识库名称,作为接口的请求参数传递给后端
modelString使用的模型名称,作为接口的请求参数传递给后端
modeString对话类型,作为接口的请求参数传递给后端,默认值:local_kb
topKNumber历史对话轮数,作为接口的请求参数传递给后端,默认值:3
scoreThresholdNumber作为接口的请求参数传递给后端,默认值:2
streamBoolean作为接口的请求参数传递给后端,默认值:true
temperatureNumber作为接口的请求参数传递给后端,默认值:0.7
maxTokensNumber作为接口的请求参数传递给后端,默认值:0
promptNameString作为接口的请求参数传递给后端,默认值:default
returnDirectBoolean作为接口的请求参数传递给后端,默认值:false
1.0.3

7 months ago

1.0.2

7 months ago

1.0.1

7 months ago

1.0.0

7 months ago