Skip to content

Commit 57c397b

Browse files
authored
docs: mention MiniMax as built-in provider in all READMEs (#1209)
Mention MiniMax as built-in provider in READMEs
1 parent bde0b77 commit 57c397b

3 files changed

Lines changed: 30 additions & 10 deletions

File tree

README.md

Lines changed: 11 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -166,13 +166,20 @@ written to `~/.ironclaw/.env` so they are available before the database connects
166166

167167
### Alternative LLM Providers
168168

169-
IronClaw defaults to NEAR AI but works with any OpenAI-compatible endpoint.
170-
Popular options include **OpenRouter** (300+ models), **Together AI**, **Fireworks AI**,
171-
**Ollama** (local), and self-hosted servers like **vLLM** or **LiteLLM**.
169+
IronClaw defaults to NEAR AI but supports many LLM providers out of the box.
170+
Built-in providers include **Anthropic**, **OpenAI**, **Google Gemini**, **MiniMax**,
171+
**Mistral**, and **Ollama** (local). OpenAI-compatible services like **OpenRouter**
172+
(300+ models), **Together AI**, **Fireworks AI**, and self-hosted servers (**vLLM**,
173+
**LiteLLM**) are also supported.
172174

173-
Select *"OpenAI-compatible"* in the wizard, or set environment variables directly:
175+
Select your provider in the wizard, or set environment variables directly:
174176

175177
```env
178+
# Example: MiniMax (built-in, 204K context)
179+
LLM_BACKEND=minimax
180+
MINIMAX_API_KEY=...
181+
182+
# Example: OpenAI-compatible endpoint
176183
LLM_BACKEND=openai_compatible
177184
LLM_BASE_URL=https://openrouter.ai/api/v1
178185
LLM_API_KEY=sk-or-...

README.ru.md

Lines changed: 11 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -163,12 +163,20 @@ ironclaw onboard
163163

164164
### Альтернативные LLM-провайдеры
165165

166-
IronClaw по умолчанию использует NEAR AI, но работает с любыми OpenAI-совместимыми эндпоинтами.
167-
Популярные варианты включают **OpenRouter** (300+ моделей), **Together AI**, **Fireworks AI**, **Ollama** (локально) и собственные серверы, такие как **vLLM** или **LiteLLM**.
166+
IronClaw по умолчанию использует NEAR AI, но поддерживает множество LLM-провайдеров из коробки.
167+
Встроенные провайдеры включают **Anthropic**, **OpenAI**, **Google Gemini**, **MiniMax**,
168+
**Mistral** и **Ollama** (локально). Также поддерживаются OpenAI-совместимые сервисы:
169+
**OpenRouter** (300+ моделей), **Together AI**, **Fireworks AI** и собственные серверы
170+
(**vLLM**, **LiteLLM**).
168171

169-
Выберите *"OpenAI-compatible"* в мастере настройки или установите переменные окружения напрямую:
172+
Выберите провайдера в мастере настройки или установите переменные окружения напрямую:
170173

171174
```env
175+
# Пример: MiniMax (встроенный, контекст 204K)
176+
LLM_BACKEND=minimax
177+
MINIMAX_API_KEY=...
178+
179+
# Пример: OpenAI-совместимый эндпоинт
172180
LLM_BACKEND=openai_compatible
173181
LLM_BASE_URL=https://openrouter.ai/api/v1
174182
LLM_API_KEY=sk-or-...

README.zh-CN.md

Lines changed: 8 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -163,12 +163,17 @@ ironclaw onboard
163163

164164
### 替代 LLM 提供商
165165

166-
IronClaw 默认使用 NEAR AI,但兼容任何 OpenAI 兼容的端点
167-
常用选项包括 **OpenRouter**(300+ 模型)、**Together AI****Fireworks AI****Ollama**(本地部署)以及自托管服务器如 **vLLM****LiteLLM**
166+
IronClaw 默认使用 NEAR AI,但开箱即用地支持多种 LLM 提供商
167+
内置提供商包括 **Anthropic****OpenAI****Google Gemini****MiniMax****Mistral****Ollama**(本地部署)。同时也支持 OpenAI 兼容服务,如 **OpenRouter**(300+ 模型)、**Together AI****Fireworks AI** 以及自托管服务器(**vLLM****LiteLLM**
168168

169-
在向导中选择 *"OpenAI-compatible"*,或直接设置环境变量:
169+
在向导中选择你的提供商,或直接设置环境变量:
170170

171171
```env
172+
# 示例:MiniMax(内置,204K 上下文)
173+
LLM_BACKEND=minimax
174+
MINIMAX_API_KEY=...
175+
176+
# 示例:OpenAI 兼容端点
172177
LLM_BACKEND=openai_compatible
173178
LLM_BASE_URL=https://openrouter.ai/api/v1
174179
LLM_API_KEY=sk-or-...

0 commit comments

Comments
 (0)