设计理念

基于现代化架构理念,构建企业级 AI 基础设施

统一化

  • 通过单一平台整合AI模型、自动化工作流、工具资源和UI界面,提供端到端的智能体管理解决方案
  • 统一的API网关和身份认证体系,简化系统集成和访问管理
  • 集中化的监控和运维界面,降低管理复杂度

模块化

  • 采用微服务架构,各组件松耦合,可独立开发、部署和扩展
  • 标准化的接口协议,确保模块间的良好协作
  • 插件化设计,支持功能模块的灵活扩展和定制

企业级

  • 内置高可用架构,确保关键业务连续性
  • 多层次安全防护,满足企业安全合规要求
  • 完善的监控告警体系,提供全面的可观测性
  • 专业的运维支持工具,降低运维成本

开发者友好

  • 提供标准的MCP协议支持,简化AI工具集成
  • 丰富的RESTful API接口,便于二次开发和集成
  • 动态UI生成能力,快速构建业务界面
  • 详细的开发文档和示例,降低开发门槛

核心特性

四大核心特性,助力企业 AI 转型

业务自动化加速

通过可视化工作流引擎,无缝连接企业内部系统与AI能力,实现业务流程自动化。经实际验证,平均提升业务流程效率40%,减少人工干预成本。

AI统一治理体系

整合 50+ 种主流大模型能力,提供统一的访问、管理和计费体系。降低AI资源管理复杂度60%,实现资源的优化配置和成本控制。

快速交付能力

动态界面生成和模块化设计,大幅缩短AI应用从需求到上线的时间。将传统AI应用交付周期从周级缩短到天级,提升业务响应速度。

企业级可靠性

提供99.95%的可用性保证,确保关键业务持续稳定运行。完善的安全合规机制,满足金融级应用的安全和监管要求。

系统架构图

TeGo-AI 智能体平台采用分层分布式架构设计

整体架构拓扑图

TeGo-AI 智能体平台采用三层分布式架构设计,实现基础设施与业务服务的完全分离。用户访问层通过外部负载均衡器分发请求到Host1/Host2双业务节点,各节点包含完整的前端、后端、AI网关和工作流引擎服务。基础设施层集中提供主存储(PostgreSQL/Redis/LDAP)、LLM服务(Embedding)及从节点备份,通过主从复制和文件同步确保数据高可用。这种架构实现了计算与存储分离,支持弹性扩展和独立运维。

整体架构拓扑图

服务流量分发架构图

TeGo-AI 智能体平台的流量分发逻辑清晰简洁:外部用户和API请求通过负载均衡器统一入口,采用轮询算法分发到Host1/Host2双业务节点。每个业务节点通过tego-proxy服务实现基于域名的内部路由,将请求精准转发到对应的前端、引擎、LLM或MCP服务。业务服务在处理请求时统一连接基础设施层的存储集群和AI服务集群,确保数据一致性和服务可靠性。主基础设施通过主从复制向备份节点同步数据,构建完整的数据保护体系。

服务流量分发架构图

端口和连接关系架构图

TeGo-AI 智能体平台的端口设计体现了清晰的网络隔离原则:外部负载均衡器仅开放80端口对接业务节点的统一入口代理,内部服务通过域名路由实现精准转发。业务节点对外提供26000(前端)、27000(MCP)、29000(后端API)、30000(工作流引擎)、31000(LLM网关)等标准化端口服务,而对内则统一连接基础设施层的5432(PostgreSQL)、6379(Redis)、389(LDAP)、11434(Embedding)等核心服务端口。这种端口映射架构既保证了外部访问的安全性,又确保了内部服务间通信的高效性。

端口和连接关系架构图

部署架构方案

TeGo-AI 平台提供四种灵活的部署方案,覆盖从极简体验到企业级核心业务支撑的全场景需求

对比维度 单节点部署 体验部署 标准生产部署 企业级高可用部署
服务器数量 1台 2台 4台 8台
服务器配置 4C/4GB/50GB(SSD) 4C/4GB/50GB(SSD) 8C/16G/200G(SSD) 16C/32G/500G(SSD)
部署方式 全服务集中部署 主从混部模式 业务服务与基础服务分离 全链路分层部署
核心定位 极简体验与资源受限场景 功能验证与体验 生产环境稳定运行 企业关键业务支撑
适用场景 个人测试、极小规模试用
资源极度有限环境
内部测试、POC验证
小规模试用
企业日常生产环境
中等规模使用
全公司级平台
高并发核心业务
高可用能力 无冗余设计
单点故障即系统中断
基础数据同步
单点故障风险高
核心服务双实例
数据库主从同步
全链路冗余
RTO≤5分钟,RPO≤1秒
部署复杂度 极低(Docker一键部署) 低(Docker Compose一键部署) 中(需配置服务拆分) 高(需规划网络与监控)

单节点部署

极简体验

适用场景:个人测试、极小规模试用、资源极度有限环境

  • 资源需求最少,适合个人或极小范围测试
  • 所有服务集中于单一节点,部署与管理极简
  • 性能受限,仅支持1-2个并发用户
  • 无任何冗余设计,单点故障直接导致系统不可用

体验部署(双节点)

功能验证

适用场景:内部测试、POC验证、小规模试用

  • 成本最低,适合快速验证
  • 所有服务集中部署,管理简单
  • 性能有限,仅支持少量并发用户
  • 无高可用保障,单点故障风险

标准生产部署(四节点)

生产环境

适用场景:企业日常生产环境、中等规模使用

  • 高性能,支持中等规模并发用户
  • 业务服务双节点冗余,基础设施分离部署
  • 完整的容灾备份机制
  • 服务分层部署,提升系统稳定性与可扩展性

企业高可用部署(八节点)

企业级

适用场景:全公司级平台、高并发核心业务

  • 企业级高性能,支持大规模并发用户
  • 全链路高可用架构,无单点故障
  • 基础设施、AI服务、业务服务完全分离部署
  • 完善的自动故障转移和容灾备份机制

部署要求与准备

系统要求

  • 操作系统:Ubuntu 22.04 LTS 或 Debian bullseye
  • 内核版本:Linux Kernel 4.10+
  • 必需软件包:bzip2、gzip、rsync、coreutils、iptables

软件依赖

  • Docker:版本 20.10 或以上
  • Docker Compose:版本 1.29 或以上
  • 时间同步:chrony 3.5+ 或 ntpd 4.2.8+

网络要求

  • 内网连通性:多节点部署需所有服务器内网互通(ping测试无丢包,延迟<1ms)
  • IP地址规划:为服务器分配固定内网IP
  • 端口配置:确保相关端口未被占用

运维指南

了解如何进行日常运维管理,确保系统稳定运行

系统运维指南

全面的运维操作指南,涵盖从基础服务管理到高级故障排查的完整运维体系。帮助运维人员快速掌握 TeGo-AI 平台的运维技能,确保系统高效稳定运行。

服务管理 监控告警 日志分析 性能优化 故障排查 备份恢复

服务健康监控

实时监控各服务状态,及时发现和处理异常情况

日志分析诊断

结构化日志分析,快速定位问题根源和性能瓶颈

安全备份策略

完善的数据备份和恢复机制,保障业务连续性

原图
上一张
下一张
放大
缩小
🖱️ 拖拽移动
ESC 关闭