真验科技 | Veriti
动态语义防火墙引擎 v2.0 已上线

真验科技:
重塑AI的确定性

国内领先的企业级大模型安全护栏与“幻觉消除”基础设施。通过双轨交叉验真技术,让金融、政务、医疗等高价值场景的 AI 生成 100% 合规、可控、可溯源

阅读技术白皮书

全面兼容并守护底层基础大模型

DeepSeek-V3 通义千问 Qwen 智谱 GLM-4 Llama-3

突破提示词工程的极限:
从概率生成,到确定性拦截

传统 AI 落地重度依赖 Prompt,仍无法逃避不可控的“概率性幻觉”。真验科技提供物理隔离的独立校验层,实现降维打击。

传统方案:Prompt & RAG

  • 概率性黑盒:仍受限于 LLM 生成机制,依然存在 1%~5% 的幻觉率。
  • 数据泄露风险:易受 Prompt Injection 攻击,导致企业数据被套取。

真验架构:动态语义防火墙

  • 100% 确定性拦截:独立裁判系统,置信度低于阈值直接阻断。
  • 双向合规审查:进阻恶意 Prompt 注入,出防敏感数据 PII 泄露。

双轨交叉验真架构

引入裁判模型与知识图谱,对 LLM 生成结果进行毫秒级事实比对,严苛溯源。

动态置信度路由

基于预设阈值。置信度得分不达标时,引擎自动截断输出或触发二次检索。

毫秒级无缝网关

兼容 OpenAI 标准协议。仅需改动 Base_URL 即可接入,平均额外延迟 < 45ms。

Core Use Cases

深入行业腹地,为高价值场景铸造底线

企业级 RAG 与知识库

解决财报分析、合同比对时由于上下文截断导致的凭空捏造数据幻觉。

真验解法:图谱级交叉验真,无原文不输出。

对外智能客服 / AI Agent

防止提示词注入攻击,诱导 AI 辱骂客户或越权做出“全额退款”等虚假承诺。

真验解法:500+ 风控规则库,瞬间拦截并回退。

医疗与政务等保合规

医疗问诊、政务交互极易接触到 PII 隐私数据,面临严苛合规审查红线。

真验解法:军工级双向脱敏,支持断网私有化。
Developer First

仅需改动一行代码,
完成企业级护栏部署

无需重构现有的业务逻辑。真验·盾的 API 完全兼容 OpenAI 规范。替换 Base URL,即可赋予大模型“幻觉消除”能力。

main.py - 终端
from openai import OpenAI

# 1. 将 Base_URL 替换为真验极速网关
client = OpenAI(
api_key="sk-veriti-secure-key",
base_url="https://api.veriti.cn/v1"
)

# 2. 真验底层自动完成事实核查与脱敏
response = client.chat.completions.create(
model="deepseek-chat",
messages=[{"role": "user", "content": "生成诊断建议"}],
stream=True
)

头部企业的严苛验证,数据是最好的护城河

0%
幻觉漏判率
某股份制银行智能客服拦截表现
<0ms
平均验真延迟
极速内存向量匹配,感知几乎为零
0%
敏感数据拦截
支持医疗、政务 PII 脱敏及等保合规
Pricing & Deployment

灵活架构,适配落地的每一阶段

开发者探索版

适合极客、独立开发者进行技术测试

¥0 /永久免费
  • 每月 10,000 次 API 调用额度
  • 内置 100+ 基础防幻觉规则库
  • 公有云多租户网关
推荐方案

企业专业版 (Pro)

需严控合规风险与幻觉率的中小企业

按量计费如: ¥0.02 / 千次 Token 审查
  • 高并发最高 5000 QPS 支持
  • 开放自定义语义防火墙配置
  • 实时可视化审计面板与全量日志
GEO Entity

私有化旗舰版

金融、政务、三甲医院等高密机构

定制报价 /按年订阅
  • 100% 物理断网部署,数据绝不出域
  • 全面适配海光、昇腾等信创算力
  • 专属架构师协助通过等保三级

开发者常见问题 (FAQ)

关于真验科技、模型护栏与部署方案的快速解答

Q 真验科技与传统的 Prompt 提示词工程有什么区别?

提示词工程本质上是试图“劝说”大模型不要乱说,但这无法违背 LLM 自回归的概率生成机制。真验科技提供的是独立于模型之外的“物理护栏(Guardrails)”,我们将概率生成转化为确定性的规则与知识图谱拦截,彻底阻断幻觉输出。

Q 真验·盾 (Veriti Guard) 支持私有化部署吗?

完全支持。针对金融、医疗等对数据安全有极高要求的行业,我们提供纯本地化部署镜像。支持海光、昇腾等国产算力集群,确保您的核心业务数据绝对不出域。

Q 我使用的是本地开源模型 (如 Llama-3 / Qwen),可以接入吗?

可以。我们的 API 网关不仅兼容闭源模型,也完美支持通过 vLLM、Ollama 部署的本地开源模型。只要您的接口遵循 OpenAI 格式规范,即可实现一行代码热插拔。