Automatische Datenverarbeitung mittels künstlicher Intelligenz (KI) darf für Versicherungsnehmer keine Black Box sein. Darauf hat jetzt die Deutsche Aktuarvereinigung verwiesen. Auch Verbraucherschützer und Versicherungsaufsicht sind sich einig: Vertrauen ist gut, Kontrolle ist besser.
Welche gefährlichen Szenarien durch künstliche Intelligenz für Versicherungsnehmer entstehen können, hat der Verbraucherzentrale Bundesverband (vzbv) jetzt in einem Faktenblatt dargestellt.
Wenn die Krankenversicherung plötzlich teuer wird
Hier nutzt die fiktive Verbraucherin „Lis“ einen digitalen Sprachassistenten, der „viele Dinge bei ihr regelt“. Er empfiehlt, regelmäßig Sport zu treiben und diese Daten an ihre Krankenversicherung weiterzuleiten, weil sie dann einen günstigeren Tarif bekommt. Doch nach drei Jahren stellt sich bei Lisa Ernüchterung ein: Nach einem Radunfall kann sie nicht mehr regelmäßig Sport betreiben und rutscht in einen deutlich höheren Krankenversicherungstarif.
Ähnlich könnte es Autofahrern ergehen, wenn sie einen rabattierten Telematik-Tarif nutzen, aber ihre Fahrfähigkeiten, etwa durch Alter oder Krankheiten nachlassen. Die Kunden werden dann Opfer von automatisch arbeitenden Algorithmen. Möglich ist auch, dass ein Schadenregulierungssystem, das mit KI arbeitet, den Kunden oder Geschädigten aufgrund von vielen Daten in der Analyse sofort als Betrüger abstempelt.
Kunden müssen Künstlicher Intelligenz auch vertrauen
Solche Entscheidungen können fehlerhaft oder sogar manipulativ sein. Daher fordert der Vorsitzende der Deutschen Aktuarvereinigung, Guido Bader: „Die neuen Algorithmen dürfen nicht zur unkontrollierbaren und unüberwachten Black Box werden. Die Verbraucher verlieren das Vertrauen in die Versicherungen, wenn ausschließlich Algorithmen ohne menschliche Moralvorstellungen Entscheidungen treffen.“
Eine ähnliche Position vertritt die Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin). Und die Verbraucherzentrale
Bundesverband fordert: „Verbraucher haben das Recht zu erfahren, ob ein Algorithmus über sie entscheidet oder ob dieser bei der Vorbereitung einer Entscheidung eine bedeutende Rolle spielt.“ Wer Algorithmic Decision Making, also ADM-Prozesse, geschäftlich einsetze, um wichtige Entscheidungen über Verbraucher vorzubereiten oder zu treffen, sollte verpflichtet werden, deren Entscheidungslogik zu erläutern und Verbrauchern die betreffende Datengrundlage transparent zu machen.
Aktuare sollen KI prüfen
Das sieht auch der Wirtschaftsmathematiker Bader so. „Genauso wie es Wirtschaftsprüfer für die Kontrolle der Unternehmen gibt, brauchen wir im Digitalzeitalter KI-Prüfer, die die rechtlichen Vorgaben kennen und auf Grundlage verbindlicher Standards die Ergebnisse der Algorithmen überprüfen, analysieren und interpretieren.“ Als Experten bringt der Chefaktuar für die Versicherungsbranche dann auch seine Verbandsmitglieder in den Focus. Aktuare könnten künftig den KI-Versicherungs-TÜV betreuen, damit die Versicherten wissen, dass die Entscheidungen der Maschinen fair und gerecht sind.
Damit stimmt die Branche mit Forderungen der Verbraucherschützer überein. Sie sind aber der Meinung, dass das Kontrollsystem staatliches legitimiert sein sollte. Nur so könne sichergestellt werden, dass das Diskriminierungsverbot sowie das Lauterkeits- und Datenschutzrecht eingehalten und richtig angewendet werden. Dadurch werde auch nachvollziehbar, welche – möglicherweise ungewollten – Auswirkungen die Prozesse auf den Alltag von Verbrauchern haben.
Autor(en): Uwe Schmidt-Kasparek