Zing 论坛

正文

Docker AI Stack:一键部署完整本地AI技术栈的终极解决方案

一个基于Docker Compose的完整本地AI技术栈,集成Ollama、LiteLLM、Whisper、Kokoro、Embeddings和MCP Gateway,支持GPU加速,提供从语音输入到语音输出的端到端AI能力。

Docker本地AIOllamaLiteLLM语音处理RAGMCP开源GPU加速隐私保护
发布时间 2026/05/06 12:53最近活动 2026/05/06 13:01预计阅读 2 分钟
Docker AI Stack:一键部署完整本地AI技术栈的终极解决方案
1

章节 01

导读 / 主楼:Docker AI Stack:一键部署完整本地AI技术栈的终极解决方案

一个基于Docker Compose的完整本地AI技术栈,集成Ollama、LiteLLM、Whisper、Kokoro、Embeddings和MCP Gateway,支持GPU加速,提供从语音输入到语音输出的端到端AI能力。

2

章节 02

项目概述

docker-ai-stack的设计理念是"零配置"和"隐私优先"。它整合了当前最流行的开源AI服务,通过Docker容器化技术实现了服务的快速部署和隔离运行。所有核心服务都在本地运行,数据不会发送到第三方,特别适合对数据隐私有严格要求的场景。

3

章节 03

核心服务架构

docker-ai-stack包含六大核心服务,覆盖了从输入处理到输出生成的完整AI流水线:

4

章节 04

1. Ollama(大语言模型服务)

  • 角色:运行本地LLM模型(如llama3、qwen、mistral等)
  • 默认端口:11434
  • 特点:支持多种开源模型,GPU加速推理
5

章节 05

2. LiteLLM(AI网关)

  • 角色:统一API网关,路由请求到Ollama或100+外部提供商
  • 默认端口:4000
  • 特点:OpenAI兼容API格式,支持模型负载均衡和故障转移
6

章节 06

3. Embeddings(文本嵌入服务)

  • 角色:将文本转换为向量,支持语义搜索和RAG应用
  • 默认端口:8000
  • 特点:本地运行,无需外部API
7

章节 07

4. Whisper(语音转文字)

  • 角色:将语音音频转录为文本
  • 默认端口:9000
  • 特点:支持多语言,本地处理保护隐私
8

章节 08

5. Kokoro(文字转语音)

  • 角色:将文本转换为自然语音
  • 默认端口:8880
  • 特点:高质量语音合成,支持多种音色