Integration
Eine Zeile Code. Voller Split-Knowledge-Datenschutz.
Tauschen Sie Ihre base_url. Ihr bestehender Anthropic-SDK-Code läuft durch die Split-Knowledge-Pipeline von The Veil — PII-Erkennung, Pseudonymisierung, isolierte Inferenz, signierte Attestierung. Kein Rewrite. Kein neues SDK. Kein Migrationsprojekt.
Zuletzt aktualisiert: April 2026
Die 1-Zeilen-Integration
Wenn Sie bereits das Anthropic SDK verwenden, ist die Integration eine Konfigurationsänderung — keine Code-Änderung.
Python
# Vorher — direkt zu Anthropic import anthropic client = anthropic.Anthropic(api_key="sk-ant-...")
# Nachher — durch The Veil
import anthropic
client = anthropic.Anthropic(
api_key="dsa_...", # Ihr Veil API Key
base_url="https://gateway.your-veil.com" # Ihr Veil Gateway
)
# Alles andere bleibt gleich
response = client.messages.create(
model="claude-sonnet-4-20250514",
max_tokens=1024,
messages=[{"role": "user", "content": "Klassifiziere dieses Ticket: ..."}]
)TypeScript
// Vorher
const client = new Anthropic({ apiKey: "sk-ant-..." });// Nachher
const client = new Anthropic({
apiKey: "dsa_...",
baseURL: "https://gateway.your-veil.com"
});
// Alles andere bleibt gleichStandard Anthropic Messages API. Ihr bestehender Code, Ihre bestehenden Prompts, Ihr bestehendes Error-Handling — unverändert. The Veil fängt ab, bereinigt, isoliert, signiert und antwortet.
Sie nutzen OpenAI, Gemini, Mistral oder lokale Modelle? Die DSA Proxy API (Pfad 2 unten) unterstützt alle Anbieter mit denselben Datenschutzgarantien. OpenAI-SDK-kompatibler Proxy ist in Planung.
The Veil ist KI-Anbieter-agnostisch. Wählen Sie Ihr Modell pro Anfrage. Wechseln Sie Anbieter, ohne Ihre Datenschutzposition zu ändern.
Was unter der Haube passiert
Jeder API-Aufruf durchläuft eine fünfstufige Pipeline, bevor er das KI-Modell erreicht:
- 1Ihr Code ruft client.messages.create() auf — die Anfrage erreicht das Gateway.
- 2PII-Firewall erkennt und entfernt Identitätsfelder. Drei Schichten: Named Entity Recognition (11+ eigene Recognizer), Quasi-Identifier-Risikobewertung (k-Anonymität, l-Diversität) und optionaler LLM PII Shield.
- 3ID Bridge erzeugt einen opaken pseudonymen Token und speichert das Mapping in einem verschlüsselten Tresor. Die KI wird die echte Identität nie sehen.
- 4Sandbox B führt die Inferenz auf pseudonymisierten Daten in einer netzwerkisolierten Umgebung aus. Das KI-Modell verarbeitet die Anfrage ohne Rückweg zu Identitätsdaten.
- 5Antwort fließt zurück durch das Gateway. Tokens werden im Arbeitsspeicher mit realen Identitäten rückverknüpft (nie gemeinsam persistiert), und ein signiertes Veil-Zertifikat wird als Nachweis angehängt.
Durchschnittlicher Overhead: einstellige Millisekunden für PII-Erkennung. Die LLM-Inferenzzeit bleibt unverändert.
Integrationspfade
Finden Sie den Pfad, der zu Ihrem Team passt:
Anthropic SDK Proxy
Ändern Sie die base_url auf Ihr Gateway. Ihr bestehender Anthropic-SDK-Code — Python, TypeScript, Go — funktioniert unverändert. OpenAI-SDK-kompatibler Proxy ist in Planung.
Teams, die bereits das Anthropic SDK nutzen und Datenschutz ohne Rewrite wollen.
DSA Proxy API
Rufen Sie POST /api/v1/proxy/messages mit explizitem Field-Routing auf. Unterstützt alle 5 LLM-Anbieter — Claude, OpenAI, Gemini, Mistral, Ollama. Modellwahl pro Anfrage.
Teams, die explizite Kontrolle über Field-Routing, Multi-Provider-Unterstützung oder kein Anthropic SDK nutzen. Ermöglicht Proving-Ground-Modus und Compliance-Trace.
ServiceNow-Integration
Importieren Sie die x_dsa_privacy Scoped App via Studio. Setzen Sie Endpunkt, API-Key, Modell und Aktivierungs-Flag. The Veil fängt Now-Assist- und AI-Agent-Aufrufe automatisch ab.
ServiceNow-Kunden, die KI-gestützte ITSM-Workflows ohne PII-Abfluss wollen.
MCP Server
Vier Tools: dsa_messages (Inferenz), dsa_analyze (vereinfacht), dsa_certificate (Compliance-Nachweis), dsa_usage (Kontingent). Zwei Modi: transparentes Provider-Backend oder explizite MCP-Tool-Aufrufe.
Teams, die Claude Desktop oder KI-Agenten mit MCP nutzen und konformen Tool-Zugang benötigen.
Scanner Assessment
Starten Sie dsa-scanner init, scan und report. Konnektoren für ServiceNow (REST API), CSV und JSON. Sehen Sie Ihre PII-Exposition vor jeder Deployment-Entscheidung.
Assessment-Phase — verstehen Sie Ihre Datenexposition vor jeder Integrationsarbeit.
DSA Proxy API Format
Für Teams, die explizite Kontrolle über Field-Routing wollen, trennt das DSA-Proxy-Format, was die KI lesen soll (prompt_template) von den Daten, die bereinigt werden müssen (context):
{
"prompt_template": "Klassifiziere diesen Incident: {{description}}",
"context": {
"description": "Benutzer Max Mustermann ([email protected]) meldet VPN-Problem aus dem Berliner Büro"
},
"model": "claude-sonnet-4-20250514",
"max_tokens": 1024
}Unterstützte Modelle
Claude
claude-sonnet-4-20250514OpenAI
gpt-4oGemini
gemini-2.5-proMistral
mistral-large-latestOllama
ollama/llama3Gleiches Anfrageformat, gleiche Datenschutz-Pipeline, gleiches Veil-Zertifikat — unabhängig davon, welches Modell Sie wählen.
Das prompt_template wird auf PII geprüft (abgelehnt bei Fund). Context-Felder durchlaufen die vollständige 3-Schichten-Sanitisierungs-Pipeline. Die KI erhält das Template mit pseudonymisiertem Kontext — nie die originalen Identitätsdaten.
Deployment-Optionen
Docker Compose
Pilot / kleine Teamscp config.env.template config.env # Werte ausfüllen ./setup.sh
- •setup.sh generiert alle Krypto-Schlüssel automatisch (Ed25519, AES, Service-Tokens)
- •Validiert Docker, Compose v2, openssl, python3
- •Vollständiger Stack in ~30 Minuten betriebsbereit
- •Inkl. lokalem Ollama für LLM-Inferenz — keine externen API-Keys zum Testen nötig
Kubernetes / Helm
Produktionhelm install dsa ./deploy/helm \ --namespace dsa-system \ --create-namespace \ --values deploy/helm/values-prod.yaml
- •Vollständiges Helm Chart mit Subcharts pro Service
- •Node-Isolation (Sandbox A und B auf separaten Node-Pools)
- •16+ NetworkPolicies über 7 Namespaces
- •Feature-Flags für jeden Service (audit.enabled, veil.enabled, etc.)
Air-Gapped / Sovereign
Behörden & Gesundheitswesen- •Vorgefertigte Container-Images, Offline-Helm-Charts
- •Ollama oder vLLM für lokale LLM-Inferenz — null externe API-Aufrufe
- •Keine Internet-Abhängigkeit. Keine Daten verlassen Ihr Netzwerk. Nie.
- •Sovereign-Cloud-kompatibel (OVHcloud, Scaleway, T-Systems, jeder EU-Anbieter)
Standard-Kubernetes. Standard-PostgreSQL. Standard-Redis. Keine Spezialhardware, keine Confidential-Computing-Enklaven, kein herstellerspezifisches Silizium.
Was Sie zurückbekommen
Jede Antwort enthält einen Link zu ihrem Veil-Zertifikat — signiert, zeitgestempelt, unabhängig verifizierbar. Beweis, dass Identitätsdaten und KI-Verarbeitung während der gesamten Pipeline isoliert waren.
{
"status": "JOB_STATUS_COMPLETED",
"result": { "text": "Kategorie: Netzwerk, Priorität: P2..." },
"model_used": "claude-sonnet-4-20250514",
"request_id": "req_4f3a1b2c8d9e",
"veil": {
"status": "available",
"certificate_url": "/api/v1/veil/certificate/req_4f3a1b2c8d9e",
"summary_url": "/api/v1/veil/certificate/req_4f3a1b2c8d9e/summary"
}
}Drei Zertifikats-Ansichten: DPO-Zusammenfassung für Compliance-Beauftragte, technischer Beweis für Sicherheitsingenieure, regulatorisches Mapping (DSGVO Art. 25/32, KI-VO Art. 10/15) für Prüfer.
API-Referenz
Vollständige API-Dokumentation ist über unsere OpenAPI-3.1-Spezifikation verfügbar — 30+ Endpunkte mit Request/Response-Schemas, Authentifizierungsdetails, Tier-Anforderungen und Fehlercodes.
API-Dokumentation anfragen→