1.0.6 • Published 1 year ago
@rascaljs/ai-cli v1.0.6
@rascaljs/ai-cli
一个结合ollama本地ai模型的前端开发工具。该工具集成了组件和 hooks 生成、提交信息自动化以及代码审查等功能,帮助开发者在保持高代码质量的同时,简化和加速开发流程。
Usage
install
pnpm i @rascaljs/ai-cli -g
ai init
ollama pull <model>
ai setModel -> Choose the model you needUse command
pnpm ai -h命令介绍
| 命令 | 作用 | 
|---|---|
| init | 初始化 AI cli | 
| set | 设置全局配置键和值。参数:  key: 配置键  value: 要设置的值示例:  ai set OLLAMA_MODEL llama2:latest | 
| hooks | 添加新的 Hooks。参数:  name: Hooks 的名称示例:  ai hooks useCustomHook | 
| get | 获取全局配置值。参数:  key: 要检索的配置键示例:  ai get username | 
| component path | 添加新组件。参数:  name: 组件名称  path: (可选)添加组件的路径示例:  ai component Button src/components | 
| commit | 生成提交信息。AI 将自动为你生成提交信息。示例:  ai commit | 
| review path | 生成代码审查信息。AI 将自动为你生成代码审查信息。(默认审查所有暂存文件)path: (可选)单一审查文件路径示例:  ai review | 
| setHost | 设置 Ollama 服务主机。示例:  ai setHost | 
| setModel | 设置 Ollama 服务模型。示例:  ai setModel | 
| list available | 显示 Ollama 模型列表。参数:  available: (可选)显示可用模型示例:  ai list | 
list
list指令使用ollama list api获取本地模型。 list available 显示可用模型,通过axios请求https://ollama.com/library使用cherrio解析html获取模型列表数据。
setHost
通过查询 ollama serve 的 PID拿到该 PID 对应的IP地址和端口设置到配置文件中。