ClampdAI
ClampdAI 主要功能
ClampdAI 适用场景
ClampdAI 常见问题
QClampdAI 是什么?
ClampdAI 是面向 AI Agent 的工具调用防火墙,位于智能体与外部工具之间,用于在执行前做安全检查、策略评估和审计记录。
QClampdAI 主要保护哪些风险场景?
其重点覆盖提示词注入、数据外泄、越权调用、工具链攻击以及缺少紧急终止机制等智能体调用风险。
QClampdAI 如何实现最小权限控制?
通过 Scope Enforcement 按授权范围放行工具调用,对超出权限或不符合策略的请求进行拒绝。
QClampdAI 支持哪些接入方式?
可通过 Python/TypeScript SDK、装饰器、回调和 CLI 接入,常见做法是在现有工具调用链路前挂载 guard。
QClampdAI 能否检测工具返回内容?
支持可选的响应侧检查(如 check_response),可用于识别返回中的敏感信息或异常数据迹象;该能力默认可按需开启。
QClampdAI 是否支持自托管部署?
支持托管版与自托管部署,自托管可通过 Docker Compose 落地,便于在特定网络与数据环境中使用。
QClampdAI 与哪些 Agent 生态兼容?
资料显示可用于 OpenAI 工具调用、Anthropic tool_use、LangChain、Google ADK 以及自定义函数调用链路。
QClampdAI 的 Red Team Live 有什么用途?
Red Team Live 用于实时红队测试,支持批量测试与自定义 payload,帮助团队验证拦截规则并复盘结果。
相似工具
ShieldAI
ShieldAI 是面向自治加密 AI Agent 的开源运行时安全层,提供交易拦截、预算控制与审计监控,帮助团队在自动化资金操作中进行风险治理。
AgentIDAI
AgentIDAI 是面向生产环境的 AI 治理控制平台,整合运行时护栏、合规证据与审计分析,帮助团队在业务交付中实现可追踪、可管理的 AI 运营。
RAXEAI
RAXEAI 是面向 LLM 与 AI Agent 的运行时安全平台,提供多层检测与策略处置能力,帮助团队提升 AI 调用过程的风险可视化与治理效率。
ModuAI
ModuAI 是面向 AI-native 开发的安全控制平面,在请求链路中执行策略、审计与路由,帮助团队在使用 coding agents 时更可控地管理风险与成本。
AliceAI
AliceAI 是面向企业的 LLM 与生成式 AI 安全平台,覆盖上线前测试、运行时防护和上线后持续验证,帮助团队更稳妥地推进 AI 应用落地与治理。
XpandAI
XpandAI 是面向企业团队的 AI Agent 平台,支持构建、编排与部署多智能体流程,连接业务系统并以自然语言推动任务执行。
GuardAI
GuardAI 提供企业级 AI 治理与安全护栏,统一管理模型访问与数据流,帮助降低使用风险并提升审计与可观测性。
MaybeDontAI
MaybeDontAI 是面向 Agentic AI 的护栏方案,通过前置策略拦截与执行后审计,帮助团队管理 MCP 与 CLI 调用风险并提升可追踪性。
AgentAnchorAI
AgentAnchorAI 是面向企业 AI Agent 的治理平台,提供执行前门控、动态授权与审计追踪,帮助团队在多智能体场景中实现可控运行与风险管理。
CalabashAI
CalabashAI 是面向企业的 AI Agent 运行与治理层,支持代理构建、系统连接与流程编排,帮助团队在现有基础设施中更可控地落地智能自动化任务。