Deterministisches Analysesystem für KI-Output-Stabilität. Erkennt Drift, Halluzination und Sycophancy in Echtzeit — modellunabhängig, ohne Datenspeicherung. Geschützte Technologie. Industriebereit.
Matthias Braun ist Bankbetriebswirt (Frankfurt School of Finance & Management) — mit über 25 Jahren in der Finanzbranche: Gesamtbanksteuerung, Risikomodelle für Milliarden-Portfolios, zwei BaFin-Prüfungen. Dazu Jahre als verantwortlicher Controller bei einem Weltmarktführer in der Antriebstechnologie.
Was fehlte, war ein Werkzeug: nicht eines, das filtert oder zensiert, sondern eines, das schlicht misst, wie stabil eine KI-Antwort strukturell ist. Diese Lücke wurde zur Forschung — über 11.500 dokumentierte Mensch-KI-Interaktionen, zwei publizierte Preprints, und schließlich Waiva®.
KI Innovation Award 2026 Finalist. Reaktionen von Yoshua Bengio, Dirk Helbing, Joanna Bryson und James Yorke.
Artikel 26 der KI-Verordnung (EU 2024/1689) verpflichtet Deployer — nicht die Anbieter — zur aktiven Überwachung von KI-Outputs. Der Digital Omnibus (Mai 2026) hat die Anwendungsfristen für Hochrisiko-KI auf Dezember 2027 (Annex III) bzw. August 2028 (Annex I) verschoben — aber die Anforderungen selbst nicht verändert.
Das Problem bleibt: Was in der Black Box passiert, ist nicht kontrollierbar. Training, Alignment, Safeguards — alles außerhalb Ihrer Reichweite. Verantwortlich für das, was rauskommt, sind Sie.
Die Verschiebung schafft ein Zeitfenster — für Unternehmen, die jetzt strukturiert vorbereiten statt 2027 unter Druck reagieren. Waiva® sitzt dabei an der einzigen Stelle, die Sie kontrollieren können: zwischen KI-Output und Entscheidung.
| AI Act Anforderung | Waiva® Umsetzung |
|---|---|
| KI-Outputs überwachen | Echtzeit-Score pro Antwort |
| Anomalien erkennen | Mehrere Drift-Indikatoren, gewichtet |
| Menschliche Aufsicht sicherstellen | Score vor jeder Entscheidung sichtbar |
| Interventionsfähigkeit | +1 Korrekturimpuls bei Drift |
| Human Oversight dokumentieren | Strukturierter Prüfnachweis |
Regelbasiert, deterministisch, reproduzierbar — entwickelt aus 11.500+ analysierten Mensch-KI-Interaktionen. Kein zweites Modell in der Evaluationsschleife.
Waiva® erkennt mehrere Drift-Dimensionen gleichzeitig — darunter Halluzination, Sycophancy und False Authority. Empirisch kalibriert, kontextbewusst, kombinatorisch.
Ein klarer Score macht die strukturelle Stabilität einer Antwort sofort sichtbar. Bewusst auf 90 gedeckelt: Die letzten 10 % Verantwortung bleiben beim Menschen — by Design.
Bei erkannter Drift zeigt Waiva® den passenden Gegenstimulus — den +1 Impuls. Nicht als Anweisung, sondern als Orientierung für die nächste Eingabe.
Jede Antwort wird live analysiert. Das Signal erscheint, während Sie noch lesen — nicht danach.
Funktioniert mit ChatGPT, Claude, Gemini und allen weiteren LLMs ohne Zugriff auf das Modell selbst. Black-Box-Ansatz — zukunftssicher.
Transiente Analyse im RAM. Keine Prompts, keine Antworten, keine personenbezogenen Daten werden gespeichert. GDPR AVV mit IONOS in place.
sReact misst strukturelle Stabilität von Text-Outputs — unabhängig davon, welches System sie erzeugt. LLMs sind der Anfang.
ChatGPT, Claude, Gemini und jedes weitere LLM — modellunabhängig, Black-Box-sicher. Bereits implementiert und getestet.
✓ ImplementiertRegelbasierte Systeme, Scoring-Modelle, hybride KI-Architekturen — überall dort, wo strukturierte Outputs entstehen und Menschen darauf handeln.
AnwendbarAutonome Agenten treffen Entscheidungen ohne Mensch im Loop. sReact misst auch hier: Hat der Agent stabil kommuniziert? Hat er Unsicherheit korrekt signalisiert? Die Frage nach Output-Stabilität wird mit zunehmender Autonomie kritischer, nicht obsoleter.
→ Strategisches ZukunftsfeldWaiva® basiert auf dem +1 Principle — validiert über 11.500+ Mensch-KI-Interaktionen, publiziert in zwei Preprints.
„I think it could be a valuable insight."
„This sounds very interesting indeed, perhaps worth publishing."
„This is indeed cognate with the definition of ethics I have been working with for some time."
„The pattern you describe makes sense, and documenting it could be useful."
Prof. Yoshua Bengio (Mila, Turing Award 2018) leitete die Forschung an sein Team für AI Honesty Benchmarks weiter.
Waiva® ist validiert und deployment-bereit. Der Algorithmuskern läuft, die Schnittstellen sind dokumentiert — bereit für die technische Due Diligence eines Partners.
Waiva® verbindet wissenschaftliches Fundament, geprüften IP-Schutz und einen funktionsfähigen Demonstrator. Was fehlt: ein Partner mit Distributionsstärke, der das Potenzial auf den Markt bringt.
Sie integrieren die sReact-Technologie in Ihr bestehendes Produkt und bringen es zur Marktreife — mit einem klaren, fairen Lizenzmodell. Kein langer Entwicklungsweg: der Kern ist fertig.
Die sReact-Engine ergänzt Ihre bestehende KI-Compliance-Plattform oder Ihr Banking-Framework. Plug-in via REST-API — kein eigenes Frontend, keine neue Infrastruktur nötig.
Gemeinsame Validierungsstudien, branchenspezifische Kalibrierung (Banking, Versicherung, Healthcare), akademische Kooperation. Ideal für Institutionen mit eigenem KI-Research-Fokus.
Langfristige Zusammenarbeit an der Schnittstelle KI-Governance × EU AI Act × Finanzbranche. Relevant für Finanzdienstleister, Versicherer und deren IT-Dienstleister.
Keine Präsentation, kein Deck. Ein 30-Minuten-Gespräch, in dem wir herausfinden, ob es passt.
contact@waiva.appWaiva® überprüft keine Fakten. Das bleibt beim Menschen.
Waiva® bewertet keine Menschen. Nur Antworten.
Waiva® trifft keine Entscheidungen. Das tun Sie.
Waiva® speichert keine Inhalte. Zero-Logging by Design.
Waiva® überwacht keine Nutzer. Keine Logs, keine Profile.
Waiva® greift nicht in Antworten ein. Kein Filter, kein Block.
Waiva® analysiert Antworten, nicht Menschen. Ihre Nutzung bleibt privat. Ihre Entscheidungen bleiben Ihre.
IONOS-Server, deutsches Recht, GDPR AVV in place. Keine US-Datentransfers.
Transiente Analyse im RAM. Keine dauerhafte Speicherung von Prompts oder Antworten.
SSH-Key-only, Fail2ban, TLS 1.3, tägliche Backups. IONOS-Infrastruktur.
Guardrails und Content-Filter greifen auf Modell-Ebene ein (Provider-seitig) oder prüfen binär auf Schlüsselwörter. Waiva® sitzt Deployer-seitig hinter dem Output — deterministisch, kontextbewusst, mehrdimensional. Es schreibt keine Antworten um, sondern gibt dem Anwender ein Signal über die strukturelle Stabilität, bevor er handelt.
Der Cap ist eine philosophische Design-Entscheidung: Waiva® misst strukturelle Stabilität (das Wie), nicht faktische Korrektheit, Kontextrelevanz oder individuelle Passung. Diese Dimensionen erfordern menschliches Urteil. Ein Score von 100 würde fälschlich signalisieren: „Bedenkenlos übernehmbar." Das widerspricht EU AI Act Art. 26 — und dem Grundgedanken von Waiva®.
Waiva® analysiert den fertigen Output — nicht den Inferenzprozess. Die Drift-Indikatoren werden auf den generierten Text angewendet. Das macht das System modellunabhängig und Black-Box-sicher — zukunftssicher für jede neue Modellgeneration.
Art. 26 der KI-Verordnung (EU 2024/1689) verpflichtet Unternehmen, die KI-Systeme einsetzen, zur aktiven Überwachung der Outputs und zur Sicherstellung menschlicher Aufsicht. Der Digital Omnibus (provisorische Einigung 07.05.2026) hat die Anwendungsfristen verschoben: Hochrisiko-KI nach Annex III gilt ab 2. Dezember 2027, eingebettete Systeme (Annex I) ab 2. August 2028. Die Anforderungen selbst sind unverändert. Waiva® ist die technische Implementierung dieser Deployer-Pflicht: dokumentierter Human Oversight, jetzt strukturiert aufgebaut statt unter Zeitdruck.
Primär überall dort, wo KI-Outputs in Entscheidungsprozesse einfließen: Finanzwesen (Beratung, Kreditentscheidungen, Compliance), Versicherung (Underwriting, Schadenbearbeitung), Gesundheitswesen, öffentliche Verwaltung. Das sReact-Modell ist output-agnostisch und damit auf jede Branche adaptierbar.
Ja. Waiva® speichert keine Daten — weder Inhalte noch Nutzerprofile. Die Analyse erfolgt transient im Arbeitsspeicher. Hosting auf deutschen IONOS-Servern in Berlin, GDPR AVV vorhanden, TLS 1.3, Zero-Logging by Design.