Integration

Eine Zeile Code. Voller Split-Knowledge-Datenschutz.

Tauschen Sie Ihre base_url. Ihr bestehender Anthropic-SDK-Code läuft durch die Split-Knowledge-Pipeline von The Veil — PII-Erkennung, Pseudonymisierung, isolierte Inferenz, signierte Attestierung. Kein Rewrite. Kein neues SDK. Kein Migrationsprojekt.

Zuletzt aktualisiert: April 2026

Die 1-Zeilen-Integration

Wenn Sie bereits das Anthropic SDK verwenden, ist die Integration eine Konfigurationsänderung — keine Code-Änderung.

Python

# Vorher — direkt zu Anthropic
import anthropic
client = anthropic.Anthropic(api_key="sk-ant-...")
# Nachher — durch The Veil
import anthropic
client = anthropic.Anthropic(
    api_key="dsa_...",              # Ihr Veil API Key
    base_url="https://gateway.your-veil.com"  # Ihr Veil Gateway
)

# Alles andere bleibt gleich
response = client.messages.create(
    model="claude-sonnet-4-20250514",
    max_tokens=1024,
    messages=[{"role": "user", "content": "Klassifiziere dieses Ticket: ..."}]
)

TypeScript

// Vorher
const client = new Anthropic({ apiKey: "sk-ant-..." });
// Nachher
const client = new Anthropic({
  apiKey: "dsa_...",
  baseURL: "https://gateway.your-veil.com"
});

// Alles andere bleibt gleich

Standard Anthropic Messages API. Ihr bestehender Code, Ihre bestehenden Prompts, Ihr bestehendes Error-Handling — unverändert. The Veil fängt ab, bereinigt, isoliert, signiert und antwortet.

Sie nutzen OpenAI, Gemini, Mistral oder lokale Modelle? Die DSA Proxy API (Pfad 2 unten) unterstützt alle Anbieter mit denselben Datenschutzgarantien. OpenAI-SDK-kompatibler Proxy ist in Planung.

Anthropic ClaudeOpenAIGoogle GeminiMistralOllama (Lokal)

The Veil ist KI-Anbieter-agnostisch. Wählen Sie Ihr Modell pro Anfrage. Wechseln Sie Anbieter, ohne Ihre Datenschutzposition zu ändern.

Was unter der Haube passiert

Jeder API-Aufruf durchläuft eine fünfstufige Pipeline, bevor er das KI-Modell erreicht:

  1. 1Ihr Code ruft client.messages.create() auf — die Anfrage erreicht das Gateway.
  2. 2PII-Firewall erkennt und entfernt Identitätsfelder. Drei Schichten: Named Entity Recognition (11+ eigene Recognizer), Quasi-Identifier-Risikobewertung (k-Anonymität, l-Diversität) und optionaler LLM PII Shield.
  3. 3ID Bridge erzeugt einen opaken pseudonymen Token und speichert das Mapping in einem verschlüsselten Tresor. Die KI wird die echte Identität nie sehen.
  4. 4Sandbox B führt die Inferenz auf pseudonymisierten Daten in einer netzwerkisolierten Umgebung aus. Das KI-Modell verarbeitet die Anfrage ohne Rückweg zu Identitätsdaten.
  5. 5Antwort fließt zurück durch das Gateway. Tokens werden im Arbeitsspeicher mit realen Identitäten rückverknüpft (nie gemeinsam persistiert), und ein signiertes Veil-Zertifikat wird als Nachweis angehängt.

Durchschnittlicher Overhead: einstellige Millisekunden für PII-Erkennung. Die LLM-Inferenzzeit bleibt unverändert.

Integrationspfade

Finden Sie den Pfad, der zu Ihrem Team passt:

Anthropic SDK Proxy

1 Zeile Code·Minuten
Am schnellsten

Ändern Sie die base_url auf Ihr Gateway. Ihr bestehender Anthropic-SDK-Code — Python, TypeScript, Go — funktioniert unverändert. OpenAI-SDK-kompatibler Proxy ist in Planung.

Teams, die bereits das Anthropic SDK nutzen und Datenschutz ohne Rewrite wollen.

DSA Proxy API

~20 Zeilen·Stunden
Maximale Kontrolle

Rufen Sie POST /api/v1/proxy/messages mit explizitem Field-Routing auf. Unterstützt alle 5 LLM-Anbieter — Claude, OpenAI, Gemini, Mistral, Ollama. Modellwahl pro Anfrage.

Teams, die explizite Kontrolle über Field-Routing, Multi-Provider-Unterstützung oder kein Anthropic SDK nutzen. Ermöglicht Proving-Ground-Modus und Compliance-Trace.

ServiceNow-Integration

App-Import + 4 Properties·1–2 Tage
ITSM

Importieren Sie die x_dsa_privacy Scoped App via Studio. Setzen Sie Endpunkt, API-Key, Modell und Aktivierungs-Flag. The Veil fängt Now-Assist- und AI-Agent-Aufrufe automatisch ab.

ServiceNow-Kunden, die KI-gestützte ITSM-Workflows ohne PII-Abfluss wollen.

MCP Server

Installation + Konfiguration·Stunden
KI-Agenten

Vier Tools: dsa_messages (Inferenz), dsa_analyze (vereinfacht), dsa_certificate (Compliance-Nachweis), dsa_usage (Kontingent). Zwei Modi: transparentes Provider-Backend oder explizite MCP-Tool-Aufrufe.

Teams, die Claude Desktop oder KI-Agenten mit MCP nutzen und konformen Tool-Zugang benötigen.

Scanner Assessment

CLI-Installation + Scan·30 Minuten
Pre-Sales

Starten Sie dsa-scanner init, scan und report. Konnektoren für ServiceNow (REST API), CSV und JSON. Sehen Sie Ihre PII-Exposition vor jeder Deployment-Entscheidung.

Assessment-Phase — verstehen Sie Ihre Datenexposition vor jeder Integrationsarbeit.

DSA Proxy API Format

Für Teams, die explizite Kontrolle über Field-Routing wollen, trennt das DSA-Proxy-Format, was die KI lesen soll (prompt_template) von den Daten, die bereinigt werden müssen (context):

{
  "prompt_template": "Klassifiziere diesen Incident: {{description}}",
  "context": {
    "description": "Benutzer Max Mustermann ([email protected]) meldet VPN-Problem aus dem Berliner Büro"
  },
  "model": "claude-sonnet-4-20250514",
  "max_tokens": 1024
}

Unterstützte Modelle

Claude

claude-sonnet-4-20250514

OpenAI

gpt-4o

Gemini

gemini-2.5-pro

Mistral

mistral-large-latest

Ollama

ollama/llama3

Gleiches Anfrageformat, gleiche Datenschutz-Pipeline, gleiches Veil-Zertifikat — unabhängig davon, welches Modell Sie wählen.

Das prompt_template wird auf PII geprüft (abgelehnt bei Fund). Context-Felder durchlaufen die vollständige 3-Schichten-Sanitisierungs-Pipeline. Die KI erhält das Template mit pseudonymisiertem Kontext — nie die originalen Identitätsdaten.

Deployment-Optionen

Docker Compose

Pilot / kleine Teams
cp config.env.template config.env
# Werte ausfüllen
./setup.sh
  • setup.sh generiert alle Krypto-Schlüssel automatisch (Ed25519, AES, Service-Tokens)
  • Validiert Docker, Compose v2, openssl, python3
  • Vollständiger Stack in ~30 Minuten betriebsbereit
  • Inkl. lokalem Ollama für LLM-Inferenz — keine externen API-Keys zum Testen nötig

Kubernetes / Helm

Produktion
helm install dsa ./deploy/helm \
  --namespace dsa-system \
  --create-namespace \
  --values deploy/helm/values-prod.yaml
  • Vollständiges Helm Chart mit Subcharts pro Service
  • Node-Isolation (Sandbox A und B auf separaten Node-Pools)
  • 16+ NetworkPolicies über 7 Namespaces
  • Feature-Flags für jeden Service (audit.enabled, veil.enabled, etc.)

Air-Gapped / Sovereign

Behörden & Gesundheitswesen
  • Vorgefertigte Container-Images, Offline-Helm-Charts
  • Ollama oder vLLM für lokale LLM-Inferenz — null externe API-Aufrufe
  • Keine Internet-Abhängigkeit. Keine Daten verlassen Ihr Netzwerk. Nie.
  • Sovereign-Cloud-kompatibel (OVHcloud, Scaleway, T-Systems, jeder EU-Anbieter)

Standard-Kubernetes. Standard-PostgreSQL. Standard-Redis. Keine Spezialhardware, keine Confidential-Computing-Enklaven, kein herstellerspezifisches Silizium.

Was Sie zurückbekommen

Jede Antwort enthält einen Link zu ihrem Veil-Zertifikat — signiert, zeitgestempelt, unabhängig verifizierbar. Beweis, dass Identitätsdaten und KI-Verarbeitung während der gesamten Pipeline isoliert waren.

{
  "status": "JOB_STATUS_COMPLETED",
  "result": { "text": "Kategorie: Netzwerk, Priorität: P2..." },
  "model_used": "claude-sonnet-4-20250514",
  "request_id": "req_4f3a1b2c8d9e",
  "veil": {
    "status": "available",
    "certificate_url": "/api/v1/veil/certificate/req_4f3a1b2c8d9e",
    "summary_url": "/api/v1/veil/certificate/req_4f3a1b2c8d9e/summary"
  }
}

Drei Zertifikats-Ansichten: DPO-Zusammenfassung für Compliance-Beauftragte, technischer Beweis für Sicherheitsingenieure, regulatorisches Mapping (DSGVO Art. 25/32, KI-VO Art. 10/15) für Prüfer.

API-Referenz

Vollständige API-Dokumentation ist über unsere OpenAPI-3.1-Spezifikation verfügbar — 30+ Endpunkte mit Request/Response-Schemas, Authentifizierungsdetails, Tier-Anforderungen und Fehlercodes.

API-Dokumentation anfragen

Starten Sie mit einem Assessment. Oder ändern Sie einfach eine Zeile.