0.2.7 • Published 4 months ago

@aigne/ollama v0.2.7

Weekly downloads
-
License
Elastic-2.0
Repository
github
Last release
4 months ago

@aigne/ollama

GitHub star chart Open Issues codecov NPM Version Elastic-2.0 licensed

English | 中文

AIGNE Ollama SDK,用于在 AIGNE 框架 中通过 Ollama 集成本地托管的 AI 模型。

简介

@aigne/ollama 提供了 AIGNE 框架与通过 Ollama 本地托管的 AI 模型之间的无缝集成。该包使开发者能够在 AIGNE 应用程序中轻松利用通过 Ollama 在本地运行的开源语言模型,同时提供框架内一致的接口,并提供私有、离线的 AI 能力访问。

特性

  • Ollama 集成:直接连接到本地 Ollama 实例
  • 本地模型支持:支持通过 Ollama 托管的各种开源模型
  • 聊天完成:支持所有可用 Ollama 模型的聊天完成 API
  • 流式响应:支持流式响应,提供更高响应性的应用程序体验
  • 类型安全:为所有 API 和模型提供全面的 TypeScript 类型定义
  • 一致接口:兼容 AIGNE 框架的模型接口
  • 注重隐私:本地运行模型,无需将数据发送到外部 API 服务
  • 完整配置:丰富的配置选项用于微调行为

安装

使用 npm

npm install @aigne/ollama @aigne/core

使用 yarn

yarn add @aigne/ollama @aigne/core

使用 pnpm

pnpm add @aigne/ollama @aigne/core

前提条件

在使用此包之前,您需要在机器上安装并运行 Ollama,并至少拉取一个模型。请按照 Ollama 网站 上的说明设置 Ollama。

基本用法

import { OllamaChatModel } from "@aigne/ollama";

const model = new OllamaChatModel({
  // Specify base URL (defaults to http://localhost:11434)
  baseURL: "http://localhost:11434",
  // Specify Ollama model to use (defaults to 'llama3')
  model: "llama3",
  modelOptions: {
    temperature: 0.8,
  },
});

const result = await model.invoke({
  messages: [{ role: "user", content: "Tell me what model you're using" }],
});

console.log(result);
/* Output:
  {
    text: "I'm an AI assistant running on Ollama with the llama3 model.",
    model: "llama3"
  }
  */

流式响应

import { OllamaChatModel } from "@aigne/ollama";

const model = new OllamaChatModel({
  baseURL: "http://localhost:11434",
  model: "llama3",
});

const stream = await model.invoke(
  {
    messages: [{ role: "user", content: "Tell me what model you're using" }],
  },
  undefined,
  { streaming: true },
);

let fullText = "";
const json = {};

for await (const chunk of stream) {
  const text = chunk.delta.text?.text;
  if (text) fullText += text;
  if (chunk.delta.json) Object.assign(json, chunk.delta.json);
}

console.log(fullText); // Output: "I'm an AI assistant running on Ollama with the llama3 model."
console.log(json); // { model: "llama3" }

许可证

Elastic-2.0

0.2.7

4 months ago

0.2.6

4 months ago

0.2.5

4 months ago

0.2.4

4 months ago

0.2.3

4 months ago

0.2.2

4 months ago

0.2.1

4 months ago

0.2.0

4 months ago

0.1.0

5 months ago