TeGo-AI 技术架构
TeGo-AI 是一个集成了大型语言模型(LLM)、工作流自动化、模型上下文协议(MCP)和统一管理的一体化企业级AI应用开发与运行平台。我们的架构旨在为企业提供高性能、高可用、可扩展且安全可控的AI基础设施,显著降低AI应用的开发、部署和运维门槛。
设计理念
基于现代化架构理念,构建企业级 AI 基础设施
统一化
- 通过单一平台整合AI模型、自动化工作流、工具资源和UI界面,提供端到端的智能体管理解决方案
- 统一的API网关和身份认证体系,简化系统集成和访问管理
- 集中化的监控和运维界面,降低管理复杂度
模块化
- 采用微服务架构,各组件松耦合,可独立开发、部署和扩展
- 标准化的接口协议,确保模块间的良好协作
- 插件化设计,支持功能模块的灵活扩展和定制
企业级
- 内置高可用架构,确保关键业务连续性
- 多层次安全防护,满足企业安全合规要求
- 完善的监控告警体系,提供全面的可观测性
- 专业的运维支持工具,降低运维成本
开发者友好
- 提供标准的MCP协议支持,简化AI工具集成
- 丰富的RESTful API接口,便于二次开发和集成
- 动态UI生成能力,快速构建业务界面
- 详细的开发文档和示例,降低开发门槛
核心特性
四大核心特性,助力企业 AI 转型
业务自动化加速
通过可视化工作流引擎,无缝连接企业内部系统与AI能力,实现业务流程自动化。经实际验证,平均提升业务流程效率40%,减少人工干预成本。
AI统一治理体系
整合 50+ 种主流大模型能力,提供统一的访问、管理和计费体系。降低AI资源管理复杂度60%,实现资源的优化配置和成本控制。
快速交付能力
动态界面生成和模块化设计,大幅缩短AI应用从需求到上线的时间。将传统AI应用交付周期从周级缩短到天级,提升业务响应速度。
企业级可靠性
提供99.95%的可用性保证,确保关键业务持续稳定运行。完善的安全合规机制,满足金融级应用的安全和监管要求。
系统架构图
TeGo-AI 智能体平台采用分层分布式架构设计
整体架构拓扑图
TeGo-AI 智能体平台采用三层分布式架构设计,实现基础设施与业务服务的完全分离。用户访问层通过外部负载均衡器分发请求到Host1/Host2双业务节点,各节点包含完整的前端、后端、AI网关和工作流引擎服务。基础设施层集中提供主存储(PostgreSQL/Redis/LDAP)、LLM服务(Embedding)及从节点备份,通过主从复制和文件同步确保数据高可用。这种架构实现了计算与存储分离,支持弹性扩展和独立运维。

服务流量分发架构图
TeGo-AI 智能体平台的流量分发逻辑清晰简洁:外部用户和API请求通过负载均衡器统一入口,采用轮询算法分发到Host1/Host2双业务节点。每个业务节点通过tego-proxy服务实现基于域名的内部路由,将请求精准转发到对应的前端、引擎、LLM或MCP服务。业务服务在处理请求时统一连接基础设施层的存储集群和AI服务集群,确保数据一致性和服务可靠性。主基础设施通过主从复制向备份节点同步数据,构建完整的数据保护体系。

端口和连接关系架构图
TeGo-AI 智能体平台的端口设计体现了清晰的网络隔离原则:外部负载均衡器仅开放80端口对接业务节点的统一入口代理,内部服务通过域名路由实现精准转发。业务节点对外提供26000(前端)、27000(MCP)、29000(后端API)、30000(工作流引擎)、31000(LLM网关)等标准化端口服务,而对内则统一连接基础设施层的5432(PostgreSQL)、6379(Redis)、389(LDAP)、11434(Embedding)等核心服务端口。这种端口映射架构既保证了外部访问的安全性,又确保了内部服务间通信的高效性。

部署架构方案
TeGo-AI 平台提供四种灵活的部署方案,覆盖从极简体验到企业级核心业务支撑的全场景需求
对比维度 | 单节点部署 | 体验部署 | 标准生产部署 | 企业级高可用部署 |
---|---|---|---|---|
服务器数量 | 1台 | 2台 | 4台 | 8台 |
服务器配置 | 4C/4GB/50GB(SSD) | 4C/4GB/50GB(SSD) | 8C/16G/200G(SSD) | 16C/32G/500G(SSD) |
部署方式 | 全服务集中部署 | 主从混部模式 | 业务服务与基础服务分离 | 全链路分层部署 |
核心定位 | 极简体验与资源受限场景 | 功能验证与体验 | 生产环境稳定运行 | 企业关键业务支撑 |
适用场景 | 个人测试、极小规模试用 资源极度有限环境 | 内部测试、POC验证 小规模试用 | 企业日常生产环境 中等规模使用 | 全公司级平台 高并发核心业务 |
高可用能力 | 无冗余设计 单点故障即系统中断 | 基础数据同步 单点故障风险高 | 核心服务双实例 数据库主从同步 | 全链路冗余 RTO≤5分钟,RPO≤1秒 |
部署复杂度 | 极低(Docker一键部署) | 低(Docker Compose一键部署) | 中(需配置服务拆分) | 高(需规划网络与监控) |
部署要求与准备
系统要求
- 操作系统:Ubuntu 22.04 LTS 或 Debian bullseye
- 内核版本:Linux Kernel 4.10+
- 必需软件包:bzip2、gzip、rsync、coreutils、iptables
软件依赖
- Docker:版本 20.10 或以上
- Docker Compose:版本 1.29 或以上
- 时间同步:chrony 3.5+ 或 ntpd 4.2.8+
网络要求
- 内网连通性:多节点部署需所有服务器内网互通(ping测试无丢包,延迟<1ms)
- IP地址规划:为服务器分配固定内网IP
- 端口配置:确保相关端口未被占用
运维指南
了解如何进行日常运维管理,确保系统稳定运行
系统运维指南
全面的运维操作指南,涵盖从基础服务管理到高级故障排查的完整运维体系。帮助运维人员快速掌握 TeGo-AI 平台的运维技能,确保系统高效稳定运行。
服务健康监控
实时监控各服务状态,及时发现和处理异常情况
日志分析诊断
结构化日志分析,快速定位问题根源和性能瓶颈
安全备份策略
完善的数据备份和恢复机制,保障业务连续性