这是一个轻量级的单页面应用程序,为 Ollama 框架提供了一个用户友好的聊天界面。它允许用户与本地运行的大型语言模型进行交互,支持实时流式响应。
- 自动检测并连接本地 Ollama 服务
- 动态加载可用的语言模型列表
- 支持实时流式文本生成
- 响应式设计,适配各种设备屏幕
- Markdown 渲染支持,包括代码高亮
- 显示每次响应的生成时间
- 简洁界面,专注于对话内容
- 代码块右下角的复制功能,方便用户复制代码
- 确保本地 Ollama 服务正在运行
- 下载
index.html文件 - 在浏览器中打开
index.html - 选择模型,开始聊天!
- 现代网络浏览器 (推荐 Chrome, Firefox, Safari 或 Edge 的最新版本)
- 本地运行的 Ollama 服务 (版本 0.1.14 或更高)
- 可选: 用于托管静态文件的简单 HTTP 服务器
-
确保 Ollama 服务已在本地安装并运行:
- 安装说明: Ollama 官方文档
- Ollama 服务应在默认端口 11434 上运行
-
下载本项目的
index.html文件。 -
使用方法 (选择其一):
a. 直接在浏览器中打开:
- 双击
index.html文件在浏览器中打开 - 注意: 某些浏览器可能会因安全策略限制而阻止直接访问本地 Ollama API
b. 使用本地 HTTP 服务器 (推荐):
- 使用 Python 的内置 HTTP 服务器:
python -m http.server 8000 - 或使用 Node.js 的
http-server:npx http-server - 在浏览器中访问
http://localhost:8000或相应的地址
- 双击
-
在界面上选择一个可用的模型,输入消息,然后点击发送或按 Ctrl+Enter。
- 模型选择下拉菜单
- 消息输入框
- 发送按钮
- 聊天历史记录区域
- Ollama 服务状态指示
Q: 如何切换不同的语言模型? A: 在界面底部的下拉菜单中选择所需的模型即可。
Q: 如何清除聊天记录? A: 目前需要刷新页面来清除聊天记录。我们计划在未来版本中添加一键清除功能。
- Ollama API 地址: 默认设置为
http://localhost:11434。如需更改,请修改index.html文件中的apiBaseUrl变量。
-
如果界面无法连接到 Ollama 服务:
- 确保 Ollama 服务正在运行
- 检查防火墙设置,确保允许本地连接到端口 11434
- 如果使用了自定义端口,更新
apiBaseUrl
-
如果模型列表为空:
- 确保已经在 Ollama 中下载了至少一个模型
- 可以通过 Ollama CLI 下载模型,例如:
ollama pull llama2
欢迎贡献代码、报告问题或提出改进建议。请访问我们的 GitHub 仓库 [链接待添加] 参与项目。
本项目采用 MIT 许可证。详情请见 LICENSE 文件。



