Wie menschlich kann KI wirklich werden?

Wie menschlich kann KI wirklich werden?

Ein Essay über eine mögliche philosophische Einordung

Wann können wir eine KI als “Menschlich” betrachten?

EINLEITUNG

Erich Fromm, ein herausragender Denker des 20. Jahrhunderts, hat uns in seinem Werk “Haben oder Sein” eine Reflexion über die wesentlichen Aspekte des Menschseins hinterlassen. Dieser Essay geht der Frage nach, ob Künstliche Intelligenz (KI) jemals menschlich sein kann, indem er Fromms Philosophie mit Richard David Prechts Gedanken aus “KI und der Sinn des Lebens” verbindet. Ganz grundsätzlich ist dabei die Fragestellung, inwieweit menschliche Entscheidungen logisch oder emotional getroffen werden.

I. Fromms “Haben oder Sein” im Zeitalter der KI:

Fromm vertrat die Ansicht, dass wahre Erfüllung im Sein und nicht im Haben liegt. Wenn wir KI als Werkzeug betrachten, stellt sich die Frage, ob Maschinen jemals das “Sein” des Menschen verstehen und nachbilden können. Fromm vertrat die Ansicht, dass die wahre Identität des Menschen primär im nichtmateriellen “Sein”, als im materiellen “Haben” zu finden ist. 

II. Die Menschlichkeit der KI nach Precht:

Precht plädiert in seinem Buch für eine ethische Gestaltung der KI-Entwicklung. Er erkennt die Überlegenheit der KI in vielen Bereichen an, bezweifelt aber, dass Maschinen jemals das Bewusstsein und die Tiefe des menschlichen Lebens erreichen werden. Die Integration moralischer Prinzipien und Werte bleiben eine Herausforderung für die Schaffung menschenähnlicher KI.

III. Emotionen und Intuition beim Menschen

Fromm betonte die Rolle der Emotionen beim Menschen, die oft intuitiven Entscheidungen zugrunde liegen. Die Frage nach der Menschlichkeit von KI führt zu Überlegungen, ob Maschinen jemals Emotionen verstehen und intuitive Entscheidungen treffen können. Precht betont, dass es unwahrscheinlich ist, dass KI echte Empathie entwickeln kann, die ein wesentlicher Bestandteil menschlicher Intuition ist.

IV. Logik vs. Intuition: Der Mix menschlicher Entscheidungen:

Die Frage, wie viel menschliche Entscheidungsfindung auf Logik und wie viel auf Intuition beruht, ist komplex. Psychologische Studien zeigen, dass viele Entscheidungen nicht rein logisch sind, sondern auch von emotionalen Faktoren beeinflusst werden. Dies stellt eine Herausforderung für die Entwicklung von KI dar, die nicht nur logisch denken, sondern auch emotionale Nuancen verstehen muss.

V. Die Zukunft menschenähnlicher KI:

Vor dem Hintergrund der Philosophie Fromms und den Ansichten Prechts bleibt die Frage nach der Möglichkeit einer menschenähnlichen KI offen. Die Herausforderungen liegen nicht nur in der technologischen Entwicklung, sondern auch in der Integration moralischer und emotionaler Aspekte. Eine KI kann logische Entscheidungen treffen, aber Menschlichkeit erfordert mehr als Logik – sie erfordert Empathie, Liebe und eine tiefere Verbindung zum Leben.

Fazit:

Erich Fromms “Haben oder Sein” bietet eine kritische Linse, durch die Menschlichkeit im Kontext von KI betrachtet werden kann. Richard David Prechts Ansichten betonen die ethischen Aspekte der KI-Entwicklung und die Unwahrscheinlichkeit einer vollständig menschenähnlichen KI. Die Frage nach dem Verhältnis von logischen und intuitiven Entscheidungen im menschlichen Handeln erweitert die Diskussion in den Bereich der Psychologie. Alles in allem bleibt der Mensch ein komplexes Wesen, das über rein logisches Denken hinausgeht und die Entwickler von KI vor eine anspruchsvolle, vielleicht unlösbare, Aufgabe stellt.

Martin Luther beantwortete live Fragen am Reformationstag

Martin Luther beantwortete live Fragen am Reformationstag

Luther spricht von der Kanzel

Am 31. Oktober 2023 hatte der YouTube-Kanal EKiRInternet die Premiere eines dreidimensionalen Luther-Avatars, der von KI gesteuert wird und fotorealistisch aussieht. Der Avatar wurde mit einem Gemälde von Martin Luther als visueller Grundlage erstellt und beantwortete gestellte Fragen so, als ob Martin Luther heute sprechen würde.¹ Mithilfe moderner KI-Algorithmen wurde ein Gemälde des Reformators in eine fotorealistische Darstellung umgewandelt. Das Ergebnis ist ein Avatar, der sich wie ein echter Mensch verhält und im Raum interagieren kann.

Diese Interaktionen fanden auf der Plattform XRHuman im Metaverse statt und wurden live auf YouTube übertragen¹. Mithilfe der ChatGPT-Technologie konnte der Luther-Avatar Fragen des Publikums in Echtzeit beantworten. Die KI wurde so programmiert, dass sie Antworten ähnlich Martin Luthers gibt¹.

Ralf Peter Reimann (Internetbeauftragter der evangelischen Kirche im Rheinland) und ich haben das Kooperationsprojekt mit der Metaverse-Plattform XRhuman initiiert und umgesetzt.

Wir sehen ein großes Potenzial darin, historische Persönlichkeiten durch den Einsatz von KI einer breiten Zielgruppe zugänglich zu machen und neue Impulse, auch für die Kirche zu setzen.

An dem Live-Chat nahmen bis zu 150 Personen teil und es wurden über 100 Fragen beantwortet.

Quellen:
(1) Stell Martin Luther am Reformationstag deine Fragen – presse.ekir.de.
https://presse.ekir.de/presse/D89F4DDA59924D37B70A56665710E09C/stell-martin-luther-am-reformationstag-deine-fragen.
(2) Live Video vom Event mit Luther auf YouTube.
https://www.youtube.com/live/uBwCHNYvgRY?si=fO_aXVeSNdpPzC4R

Traumatherapie mit KI-Unterstützung: Chancen und Herausforderungen

Traumatische Erlebnisse können zu schwerwiegenden psychischen Folgen führen, wie z.B. einer posttraumatischen Belastungsstörung (PTBS). Die Behandlung von Traumafolgestörungen erfordert eine individuelle und professionelle Begleitung durch Psychotherapeut:innen. Doch wie kann künstliche Intelligenz (KI) die Traumatherapie unterstützen oder ergänzen? Welche Vorteile und Risiken sind damit verbunden?

KI in der Diagnostik und Prävention von Traumafolgestörungen

KI könnte auch dazu beitragen, traumatisierte Personen frühzeitig zu identifizieren und präventive Maßnahmen anzubieten. Zum Beispiel könnten KI-gestützte Apps oder Chatbots den Betroffenen Informationen, Tipps oder Übungen zur Verfügung stellen, um mit den traumatischen Symptomen umzugehen. Solche digitalen Interventionen könnten eine niedrigschwellige und anonyme Zugangsmöglichkeit zu psychologischer Hilfe darstellen.

KI in der Therapie von Traumafolgestörungen

Ein mögliches Anwendungsfeld künstlicher Intelligenz liegt darin, die Diagnostik psychischer Erkrankungen zu unterstützen. So könnten KI-basierte Modelle basierend auf verschiedenen Parametern Hinweise darauf geben, in welche Richtung eine vertiefende Diagnostik sinnvoll sein könnte und so die Diagnosestellung erleichtern. Dies könnte z.B. durch die Analyse von Sprachmustern, Mimik, Gestik oder physiologischen Daten geschehen.

KI könnte auch in der Therapie von Traumafolgestörungen eingesetzt werden, z.B. als Ergänzung oder Alternative zu einer konventionellen Psychotherapie. Dabei könnten verschiedene Methoden zum Einsatz kommen, wie z.B.:

• Virtuelle Realität (VR): VR ermöglicht es, traumatische Situationen in einer kontrollierten und sicheren Umgebung nachzustellen und so eine Expositionstherapie durchzuführen. Dabei könnte die VR-Umgebung durch KI an die individuellen Bedürfnisse und Reaktionen der Patient:innen angepasst werden.

• Avatar-Therapie: Avatar-Therapie ist eine Form der Gesprächspsychotherapie, bei der die Patient:innen mit einem virtuellen Gegenüber interagieren, das durch KI gesteuert wird. Dies könnte z.B. eine traumatische Person darstellen, mit der die Patient:innen einen Dialog führen können, um das Erlebte zu verarbeiten.

• KI-basierte Software: KI-basierte Software könnte die Therapie von Traumafolgestörungen unterstützen, indem sie z.B. personalisierte Feedbacks, Empfehlungen oder Erinnerungen anbietet. Außerdem könnte sie die Dokumentation und Evaluation der Therapie erleichtern.

Ethische Fragen und Herausforderungen

Der Einsatz von KI in der Traumatherapie wirft jedoch auch ethische Fragen und Herausforderungen auf, die es zu beachten gilt. Einige davon sind:

• Datenschutz und Sicherheit: Die Verarbeitung von sensiblen Daten über traumatische Erlebnisse erfordert einen hohen Schutz vor Missbrauch oder unbefugtem Zugriff. Dabei müssen sowohl technische als auch rechtliche Maßnahmen getroffen werden, um die Privatsphäre und Autonomie der Patient:innen zu wahren.

• Qualität und Wirksamkeit: Die Qualität und Wirksamkeit von KI-basierten Interventionen muss wissenschaftlich geprüft und evaluiert werden, bevor sie in der Praxis angewendet werden können. Dabei müssen auch mögliche Nebenwirkungen oder Schäden berücksichtigt werden, die durch eine fehlerhafte oder unangemessene KI entstehen könnten.

• Vertrauen und Beziehung: Die Beziehung zwischen Patient:innen und Therapeut:innen ist ein wesentlicher Faktor für den Erfolg einer Traumatherapie. Dabei spielen Vertrauen, Empathie und Respekt eine wichtige Rolle. Wie kann eine solche Beziehung mit einer KI aufgebaut und erhalten werden? Wie kann eine KI die menschliche Interaktion ergänzen oder ersetzen, ohne sie zu ersetzen oder zu gefährden?

Fazit

KI bietet viele Möglichkeiten, die Traumatherapie zu verbessern oder zu erweitern. Dabei müssen jedoch auch die ethischen Aspekte und Herausforderungen beachtet werden, die mit dem Einsatz von KI in diesem sensiblen Bereich einhergehen. Es bedarf daher einer interdisziplinären Zusammenarbeit und eines kritischen Diskurses, um die Chancen und Risiken von KI in der Traumatherapie auszuloten und verantwortungsvoll zu gestalten.