Zing 论坛

正文

AgentRunKit:Swift 6轻量级LLM智能体框架

一个零依赖、完全支持Sendable的Swift 6框架,用于构建支持云端和Apple Silicon本地MLX推理的LLM智能体应用。

Swift 6LLM智能体MLXApple Silicon本地推理MCP协议异步编程
发布时间 2026/03/31 14:46最近活动 2026/03/31 15:02预计阅读 3 分钟
AgentRunKit:Swift 6轻量级LLM智能体框架
1

章节 01

导读 / 主楼:AgentRunKit:Swift 6轻量级LLM智能体框架

一个零依赖、完全支持Sendable的Swift 6框架,用于构建支持云端和Apple Silicon本地MLX推理的LLM智能体应用。

2

章节 02

框架定位与设计哲学

AgentRunKit是一个专为Swift 6设计的轻量级框架,旨在简化LLM(大语言模型)驱动智能体的开发流程。在当今AI应用开发领域,开发者往往需要在云端API和本地推理之间做出选择,而AgentRunKit的独特之处在于它同时支持这两种模式,让开发者可以根据场景灵活切换。

该框架的核心设计哲学可以概括为:零依赖、完全Sendable、异步/等待支持、云端+本地双模式、以及MCP(Model Context Protocol)兼容。这些特性使其成为构建现代AI应用的理想选择。

3

章节 03

零依赖架构

AgentRunKit不依赖任何外部库,这意味着更小的二进制体积、更快的编译速度,以及更少的版本冲突问题。对于追求简洁和可控的开发者来说,这是一个重要的优势。

4

章节 04

完全Sendable支持

Swift 6引入了严格的并发安全检查,AgentRunKit完全遵循这一规范,所有类型都符合Sendable协议。这确保了在多线程环境下的类型安全,让并发编程更加可靠。

5

章节 05

异步/等待模式

框架全面采用Swift的async/await语法,使异步代码的编写和阅读更接近同步代码的直观体验。无论是网络请求还是本地模型推理,都可以通过统一的异步接口处理。

6

章节 06

云端与本地双模式

AgentRunKit支持两种推理模式:

  • 云端模式:通过OpenAI API或其他兼容API进行推理,适合需要最强模型能力的场景
  • 本地模式:通过MLX在Apple Silicon设备上进行本地推理,适合注重隐私和离线使用的场景

开发者可以在运行时动态切换这两种模式,或者根据网络状况自动选择。

7

章节 07

MCP协议支持

框架实现了MCP(Model Context Protocol)客户端,支持stdio传输、工具发现、JSON-RPC通信等功能。这使得AgentRunKit可以与遵循MCP标准的服务和工具无缝集成。

8

章节 08

快速入门示例

以下是一个完整的AgentRunKit使用示例,展示了如何创建一个简单的天气查询智能体:

import AgentRunKit

let client = OpenAIClient(apiKey: "sk-...", model: "gpt-4o", baseURL: OpenAIClient.openAIBaseURL)

let weatherTool = try Tool<WeatherParams, String, EmptyContext>(
    name: "get_weather",
    description: "Get the current weather"
) { params, _ in
    "72°F and sunny in \(params.city)"
}

let agent = Agent(client: client, tools: [weatherTool])
let result = try await agent.run(userMessage: "What's the weather in SF?", context: EmptyContext())
print(result.content)

这段代码展示了框架的几个关键概念:客户端配置、工具定义、智能体创建和运行。整个过程类型安全,且充分利用了Swift的现代并发特性。