1.0.6 • Published 5 months ago
@rascaljs/ai-cli v1.0.6
@rascaljs/ai-cli
一个结合ollama本地ai模型的前端开发工具。该工具集成了组件和 hooks 生成、提交信息自动化以及代码审查等功能,帮助开发者在保持高代码质量的同时,简化和加速开发流程。
Usage
install
pnpm i @rascaljs/ai-cli -g
ai init
ollama pull <model>
ai setModel -> Choose the model you need
Use command
pnpm ai -h
命令介绍
命令 | 作用 |
---|---|
init | 初始化 AI cli |
set | 设置全局配置键和值。参数: key: 配置键 value: 要设置的值示例: ai set OLLAMA_MODEL llama2:latest |
hooks | 添加新的 Hooks。参数: name: Hooks 的名称示例: ai hooks useCustomHook |
get | 获取全局配置值。参数: key: 要检索的配置键示例: ai get username |
component path | 添加新组件。参数: name: 组件名称 path: (可选)添加组件的路径示例: ai component Button src/components |
commit | 生成提交信息。AI 将自动为你生成提交信息。示例: ai commit |
review path | 生成代码审查信息。AI 将自动为你生成代码审查信息。(默认审查所有暂存文件)path: (可选)单一审查文件路径示例: ai review |
setHost | 设置 Ollama 服务主机。示例: ai setHost |
setModel | 设置 Ollama 服务模型。示例: ai setModel |
list available | 显示 Ollama 模型列表。参数: available: (可选)显示可用模型示例: ai list |
list
list指令使用ollama list api获取本地模型。 list available 显示可用模型,通过axios请求https://ollama.com/library使用cherrio解析html获取模型列表数据。
setHost
通过查询 ollama serve 的 PID拿到该 PID 对应的IP地址和端口设置到配置文件中。