Thomas Hirschmann ist Experte für verhaltensdatengetriebene Transformation. Im Interview spricht er über die Rolle der Verhaltenspsychologie bei KI-gestützten Innovationen im Versicherungsbereich – und warum der Mensch trotz fortschreitender Technologie weiterhin eine Rolle spielt. Nicht zuletzt aufgrund der immensen Bedeutung von Empathie in einer digitalen Welt.
In einem kürzlich stattgefundenen Talk vom ERGO Innovation Lab in Berlin wurde unter anderem dazu diskutiert, welche Rolle der Mensch zukünftig im Kundenkontakt noch spielen wird. Die vertretenen Meinungen in der Panel-Runde dazu waren ein wenig geteilt. Wo stehst Du bei der Thematik aus Sicht der Verhaltenspsychologie?
Thomas Hirschmann: Wahrscheinlich irgendwo in der Mitte. Ich fühle mich bei dem Thema erinnert an den Shift, den es vor nicht allzu langer Zeit mit Blick auf Streaming-Dienste versus Videotheken gab. Ich habe damals noch in München gelebt und mich mit einem Mitarbeiter einer solchen Videothek unterhalten und ihn gefragt, ob er schon von Netflix gehört habe und wie er das einschätze. Sinngemäß hat er mir geantwortet: „Streaming wird sich nie durchsetzen, weil die Leute zu uns kommen, um eine ganz persönliche Empfehlungen zu erhalten.“ Wir wissen alle, wie die Geschichte ausgegangen ist. Ganz generell würde ich sagen, dass der Faktor Mensch im direkten Kundenkontakt langfristig in den Hintergrund tritt. Einen Vorbehalt würde ich in dem Zusammenhang aber äußern ...
Der da wäre?
Thomas Hirschmann: Derselbe, den wir auch in anderen hochsensiblen Branchen – beispielsweise in der Medizin – beobachten. Wir brauchen auch in Zukunft Verantwortlichkeit. Maschinen können aber schon rein rechtlich gesehen keine Verantwortung übernehmen. Zudem wird es immer sogenannte „Edge Cases“ geben. Damit meine ich jene Fälle, die so außergewöhnlich sind, dass die Maschine sie nicht adäquat einordnen und deshalb auch keine passende Entscheidung treffen kann. Und zwar schlicht deswegen, weil der Fall außerhalb des Bereichs gelernter Parameter liegt. Für eine hinreichend „gute“ Entscheidung braucht es dann tatsächlich einen Menschen. Solche Besonderheiten müssen wir auch in KI-augmentierten Prozessen adäquat verorten können, und nur Menschen mit hinreichend Intelligenz, Lebenserfahrung und Empathie können dies am Ende sinnhaft tun. Deswegen wird es insbesondere in entscheidungssensiblen Bereichen auch in naher Zukunft keine vollständig AI-gesteuerten Letztentscheidungen geben.
Das heißt, wir Menschen sind aus Deiner Sicht so programmiert, dass wir in bestimmten Momenten eher Menschen vertrauen?
Thomas Hirschmann: Zu 90 Prozent, vielleicht auch 95 Prozent kann ich mir vorstellen, dass künstliche Intelligenz bei Standard-Anliegen eines Versicherten gut funktioniert. Wir haben jüngst massive Fortschritte in Sachen KI gemacht und werden weitere machen.
Wo es um Effizienz geht, hat die Maschine immer einen Vorteil. Die andere Geschichte ist die der persönlichen Einstellung. Jeder Mensch hat individuelle Präferenzen. Diese kann man über die Zeit auch aus den Daten lernen. Das heißt aber nicht, dass die Maschine das auch tatsächlich verstehen und umsetzen kann, weil wir Menschen natürlich auch noch einen starken emotionalen Anteil haben. Und emotionale Präferenzen sind schlecht modellierbar. Deshalb wird es zum Beispiel auch immer Menschen geben, die bereit sind, für ein Produkt wie eine Versicherung mehr zu zahlen, wenn sie dadurch einen menschlichen Ansprechpartner garantiert bekommen. Jemanden, dem sie sich auch individuell erklären können, der sie versteht und sich dafür einsetzt, dass bei Eintritt eines konkreten Versicherungsfalles auch gezahlt wird, statt dass der Case durch einen Algorithmus gesteuert wird, der eine Zahlung ablehnt, weil es an irgendeiner Stelle aus Sicht der KI eine Auffälligkeit gab, die für den Versicherungsmakler aber nachvollzieh- und damit erklärbar wäre.
Welche Daten und Erkenntnisse aus der Verhaltenspsychologie sind für die Versicherungsbranche besonders relevant, wenn es um KI-Anwendungen geht, und warum?
Allen voran die Einsicht, dass Menschen nicht notwendigerweise „rationale“ Wesen sind. Wir sind zwar natürlicherweise mit Vernunft begabt, oder besser gesagt grundsätzlich in der Lage „intelligent“, also überlegt und zielorientiert zu handeln. Aber das bedeutet nicht, dass wir das immer tun. Selbst dort, wo wir es tun, ist der Zeithorizont unseres Verhaltens evolutionsbedingt meist sehr kurzfristig. KI hat zukünftig als ambientes Referenzsystem das Potenzial, die Qualität unserer Entscheidungen so zu optimieren, dass wir auch eine langfristige Verbesserung unserer Lebensqualität erreichen können. Dafür müssen wir die KI jedoch auch systematisch mit verhaltenspsychologischen Erkenntnissen aus dem Bereich „Behavioural Economics“ (Stichworte „Nudging“, „Biases“ …), aus der Gruppen- und Sozialpsychologie (Stichworte „Gruppendruck“, „Fear of Missing out“ ...) und vor allem auch aus dem Bereich Neuropsychologie (Stichworte „Willensfreiheit“, „Rolle von Emotionen“, „Life History Theory“, …) vertraut machen. Ganz wichtig ist es dabei zu erkennen, dass wir uns bei alledem selbst nicht unbedingt komplett verstehen müssen. Das heißt, dass die ganze Debatte um eine „transparente KI“ insoweit fundamental fehlgeleitet ist, da Menschen, wie David Ogilvy es einmal perfekt formulierte, „nicht das denken, was sie fühlen, nicht das sagen, was sie denken und auch nicht das tun, was sie sagen“.
Wie muss eine im Einsatz befindliche KI dann agieren, um uns Menschen abzuholen?
Thomas Hirschmann: Kundinnen und Kunden möchten sich in ihrer Individualität wahrgenommen fühlen. An genau diesem Punkt kam die Maschine bislang vielfach an ihre Grenzen. Ich sage „bislang“ mit Verweis auf eine Reihe spannender technischer Neuerungen wie zum Beispiel das System SoundStorm aus dem Hause Google. Damit kann in Zukunft in Echtzeit eine komplett authentisch klingende menschliche Sprache samt Satzmelodie, Akzent und sogar Atemgeräuschen künstlich erzeugt werden. Bezogen auf den Kundenservice hieße das: Im Erstkontakt spricht der Versicherungskunde bzw. die -kundin mit einer Maschine, die von einem echten Menschen nicht zu unterscheiden ist. Damit wird eine Interaktion zwischen Mensch und Maschine realisiert, die sehr, sehr nah an den Mensch-zu-Mensch-Dialog herankommt. Das Einzige, was bei der KI dann noch fehlt, ist der Faktor Empathie, also das emotionale Auffangen. Und auch hier gibt es beeindruckende Fortschritte. Im Rahmen einer im Mai 2023 veröffentlichten medizinischen Blindstudie schnitt die KI hinsichtlich des Eindrucks von Patientinnen und Patienten besser ab als beteiligte menschliche Ärzte und Ärztinnen, und zwar insbesondere auch, was das erlebte Einfühlungsvermögen anbelangt. „Doktor KI“ wurde also als empathischer wahrgenommen als ein menschlicher Arzt bzw. Ärztin, ohne dass Patientinnen und Patienten wussten, dass es sich dabei um eine Maschine handelte. Das ist schon krass. Speziell mit Blick auf die Basisqualität vieler „Dienstleistungen höherer Art“ wird die Maschine also nicht nur viel Potential haben, sondern gegebenenfalls auch vieles besser machen können als der Mensch. Letztlich mag das auch daran liegen, dass ein KI-Arzt eben nie gestresst ist, kein Privatleben hat und auch keine Pausen braucht.
Dieses „individuell wahrgenommen werden“, von dem ich zuvor sprach, kann die Maschine dann aber natürlich doch nicht wirklich. Genau deshalb muss es immer eine Möglichkeit zur Eskalation an einen Menschen geben. Es muss also einen Prozess geben, wonach die Maschine nach bestimmten Parametern ihre eigenen Interaktions- und Wirksamkeitsgrenzen erkennt, diese offenlegt und dann transparent macht, dass es nun an der Zeit ist, an einen menschlichen Mitarbeitenden zu übergeben. Und genau an dieser Grenze wird es zu sehr spannenden Mensch-Maschine-Projektionen kommen, das heißt Kundinnen und Kunden werden sich gegebenenfalls bereits so an ein Maschinenprofil gewöhnt haben, dass die KI-Persönlichkeit dann vom menschlichen Mitarbeiter bzw. Mitarbeiterin weitergedacht und in dessen Kundeninteraktion als Referenz zugrunde gelegt werden muss.
Im Umkehrschluss bedeutet das aber auch, dass dieser neue menschliche Maschinen-Kollege äußerst gut geschult und qualifiziert sein muss, um alle Entscheidungen, die zuvor bereits von der KI bereits getroffen wurden, richtig einordnen und bewerten zu können. Denn Vertrauen in KI beruht auch immer darauf, wie gut Menschen die durch sie getroffenen Kategorisierungen oder Entscheidungsvorschläge nachvollziehen und verstehen können.
Das klingt nahe dran an „Westworld“ und wird hoffentlich noch eine Weile dauern. Eine andere spannende Frage zu Versicherungen und KI ist doch, ob bzw. wie KI-Versicherungskundinnen und -kunden dabei unterstützen wird, zukünftig bessere Entscheidungen bezüglich ihrer individuellen Versicherungsbedarfe zu treffen. Hast Du da aus Deiner Disziplin heraus schon eine Idee?
In der Tat habe ich bereits eine ganze Reihe von Ideen. Speziell im Bereich der Verbesserung nachhaltigen Verhaltens sehe ich ein enormes Potenzial, um Entscheidungen von Versicherten so zu optimieren, dass nicht nur ihre individuellen und ganz persönlichen, sondern unser aller Bedürfnisse und Lebenssituationen langfristig verbessert werden. KI könnte uns hierbei helfen. Etwa indem sie uns präzise Prognosen über die aggregierten, langfristigen Folgen unseres Verhaltens liefert, uns diese anschaulich vermittelt und nachhaltiges Verhalten incentiviert. Dadurch könnte sie zur dringend notwendigen Veränderung unserer Denk- und Verhaltensweise beitragen, um unseren Planeten auch für nachkommende Generationen in einem lebensfähigen und lebenswerten Zustand zu erhalten.
Das Interview führte Alexa Brandt
Ähnliche Beiträge