Künstliche Intelligenz: Antworten auf die falschen Fragen?

Die Auseinandersetzung mit der künstlichen Intelligenz stellt die falschen Fragen und gibt auf grundlegende Probleme, die die Menschheit beschäftigen keine Antwort.

Sie ist in aller Munde: die künstliche Intelligenz.

Künstliche Intelligenz kann so hervorragend Aufsätze schreiben, dass Lehrer verblüfft sind über das Qualitätsniveau und sich den Kopf zerbrechen, wie sie erkennen können, ob der Schüler oder die Schülerin die Arbeit selber, oder ob künstliche Intelligenz die Arbeit geschrieben hat.

Ist das die Frage, die Lehrer und Schüler beschäftigt? Die Schule, eine grosse Errungenschaft unserer Zivilisation hilft das Kind und den jungen Menschen ins Leben einzuführen, hilft Lernen im sozialen Rahmen. Schule ist Lernen und das heisst sich im Rahmen des kleinen, sozialen Kosmos lernend auf die zukünftigen Erwartungen und Verpflichtungen in der Gesellschaft vorzubereiten. Hierbei hilft in erster Linie die Beziehung zum Lehrer und die Beziehung zu den andern Mitschülern. Die Frage wäre hier nicht, ob künstliche Intelligenz es schafft hervorragende Deutschaufsätze zu schreiben, sondern die relevante Frage ist, ob das Schreiben dieses Aufsatzes dem Schüler oder der Schülerin geholfen hat seine Fertigkeiten zu verbessern, das Thema sachgerecht zu bearbeiten, verständlich zu kommunizieren, im Austausch mit anderen Schülern und Schülerinnen die Thesen, Gegenthesen und Schlussfolgerungen zu vertreten und gegenläufige Standpunkte, die in seinem oder ihrem Aufsatz nicht vertreten waren, aufzunehmen, zu integrieren oder gegebenenfalls zu widerlegen.

Von der künstlichen Intelligenz erhofft man sich grossartige Fortschritte, in der Gentechnik, so auch für die Medizin. Künstliche Intelligenz kann mit enormer Geschwindigkeit die Proteine des Universums enkodieren, einschliesslich der damit verbundenen zahlreichen Faltungen. Man erhofft sich dadurch einen grossen Nutzen für die Menschheit. So er denn eintritt.

Künstliche Intelligenz ist in der Lage Hautkrebs zu erkennen. Dies wird in einer im Nature 20171 erschienenen Publikation von den Autoren eindrucksvoll beschrieben. (Das folgende englischsprachige Zitat stelle ich im nächsten Absatz von mir auf Deutsch übersetzt noch einmal vor.) „The CNN (convolutional neuronal network; Anmerkung der Referentin) achieves performance on par with all tested experts across both tasks, demonstrating an artificial intelligence capable of classifying skin cancer with a level of competence comparable to dermatologists. Outfitted with deep neural networks, mobile devices can potentially extend the reach of dermatologists outside of the clinic. It is projected that 6.3 billion smartphone suscriptions will exist by the year 2021 (…) and can therefore potentially provide low-cost universal access to vital diagnostic care.“2 „CNN (convolutional neuronal network), was soviel heisst wie ein künstliches neuronales Netzwerk, das der Sehrinde im menschlichen Hirn nachempfunden ist, und bei Grafiken und Bildern angewendet werden kann) hat eine Performance, die gleichzieht mit allen getesteten Experten bei beiden Aufgaben und das zeigt, dass künstliche Intelligenz fähig ist Hautkrebs zu klassifizieren mit einem Kompetenzlevel, welches dem der Dermatologen vergleichbar ist. Ausgestattet mit deep neural network können mobile Geräte das Potenzial entwickeln die Reichweite der Dermatologen ausserhalb der Klinik auszuweiten. Es wird vorausgesagt, dass 6.3 Billionen Smartphone Abonnenten im Jahr 2021 existieren und das einen potenziellen Niedrigkosten universalen Anschluss (Hervorhebung durch Referentin) an vitale diagnostische Medizin liefert.“

Was erfahren wir hier? Künstliche Intelligenz kann Diagnostik billig betreiben, die viele Menschen erreicht.

Die relevante Frage aber ist: Überleben Patienten durch diese Früherkennung länger? Haben sie eine bessere Lebensqualität? Sind sie bei der Diagnose getragen durch die verständnisvolle und kompetente Beziehung zum Arzt, zu Freunden und zu Familienmitgliedern?

Werden Diagnosen zu früh gestellt, versetzt die potenzielle Möglichkeit jederzeit und überall „erkennen“ zu können, ob man krebskrank ist, die Menschen nicht vor allen Dingen in Angst und Schrecken? Vielleicht wird ja der Körper mit der einen oder anderen Symptomatik selber fertig und dies, weil er kein autonomes neurales Netzwerk ist, sondern ein komplexes Gebilde, welches im dynamischen Austausch mit der Umwelt und den Beziehungen steht. Der Mensch ist mit seinem Körper in stetig sich ändernden Verbindungen in Beziehungen und Umwelteinflüssen. Und dies kann auch im Rahmen einer drohenden oder ausgebrochenen Erkrankung entscheidend für den weiteren Verlauf sein.

Um die künstliche Intelligenz in Medizin, Wissenschaft und Forschung nutzen zu können, brauchen wir Datensätze. Jeder soll helfen durch die Freigabe seiner Datensätze zur Fortentwicklung von Wissenschaft und Forschung beizutragen. Natürlich, so wird proklamiert, müsse mit den Daten sorgfältig umgegangen werden, sodass der Persönlichkeitsschutz gewährleistet ist.

Die Frage aber ist: Warum sollen wir Menschen überhaupt unsere persönlichen Daten zur Verfügung stellen? Haben wir nicht lange in der Geschichte der Demokratien darum gerungen, dass der Mensch eine Privatsphäre hat, die ihn berechtigt intime Informationen allenfalls an seinen Arzt/seine Ärztin oder speziell von ihm ausgewählten Personen weiterzugeben und/oder diese mit denjenigen zu besprechen, die er persönlich dafür ausgewählt hat. Diese Errungenschaft kam nicht von ungefähr. Der aktive Schutz der Privatsphäre hilft uns Menschen zu lernen uns vor Eingriffen Dritten gegenüber zu schützen. Das stärkt unsere persönliche Widerstandskraft gegenüber der Entwicklung von totalitären Tendenzen. Ist es also wichtiger, dass die künstliche Intelligenz möglichst viele Datensätze von den Bürgern hat oder ist es wichtiger, dass der Bürger lernt im Zusammenleben sich und seine Liebsten zu schützen, damit er ein besseres, persönliches Repertoire hat, um sich gegenüber feindseligen Tendenzen und totalitären Übergriffen frühzeitig und konstruktiv zu behaupten? Denn wer dies nicht sein Leben lang geübt hat, wird es „wenn es soweit ist“, nicht können.

Künstliche Intelligenz hat zur Folge, dass Wissenschaftler und Ärzte und gegebenenfalls auch Bürger lernen etwas anzuwenden und zu verwenden, was sie nicht verstehen. Denn künstliche Intelligenz kann sich nicht erklären. Ja, Wissenschaftler wissen oft nicht wie künstliche Intelligenz exakt zu ihrem Ergebnis gekommen ist. Sie halten das Ergebnis für plausibel, können es in weniger komplexen Fällen auch überprüfen. Ansonsten scheinen sie einfach begeistert.

2019 publizierten Michael T. Lue et al. im JAMA (Journal of the American Medical Association) eine Studie, die belegt, dass ein Risikoscore, der über künstliche Intelligenz eingesetzt wurde, in der Lage war anhand einer Röntgen-Thorax Übersicht Aufnahme mit grosser Sicherheit die Mortalität bzw. die Lebenserwartung der betroffenen Personen vorauszusagen.3 Es waren die Röntgenbilder von asymptomatischen Personen im Alter von 55 bis 74 Jahren beurteilt worden. Wie die künstliche Intelligenz auf ihre Ergebnisse kam, konnten die Autoren nicht sagen. Sie vermuteten, dass künstliche Intelligenz ein Muster auf der Thoraxübersichtsaufnahme erkannte, die nicht an eine einzelne Diagnose oder Krankheit gebunden ist, aber summativ die unterliegende Prognose und Gesundheit misst.4 In der Youtube Publikation (Vortrag) vom 14.12.2023 beschreibt der Psychiater Prof. Dr. Manfred Spitzer (Künstliche Intelligenz – dem Menschen überlegen: Wie sie uns rettet und bedroht), dass weitere Forschungen in diesem Fall ergeben haben, dass die künstliche Intelligenz die Lebenserwartung vor allen Dingen aus der radiographischen Darstellung der Schulterblätter entnommen hat. Dies entbehrt nicht einer gewissen Plausibilität. Ältere Menschen nehmen zum Teil eine eher gebückte Haltung ein. Dies ist ein Aspekt, den jeder Kliniker kennt, weil der Arzt, die Ärztin im Allgemeinen nicht ein Röntgenbild beurteilt, sondern einen Menschen untersucht, mit ihm kommuniziert, und aus dem Gesamtbild einschliesslich zur Verfügung stehender technischer Mittel eine Diagnose ableitet.

Die Autoren des obengenannten Artikels warnen selber davor, dass solche Studien das Potenzial haben unintendiert Leiden hervorzurufen, einschliesslich unnötigen Untersuchungen, die Ablehnung von Behandlungen, die Ablehnungen von Versicherungen, sich verschärfende gesellschaftliche Ungleichheiten und Angst. Ausserdem sei zu bedenken, dass diese Untersuchungen das Potenzial haben Prognosen zu stellen ohne ein Behandlungsversprechen oder eine Verbesserung von Risiken.5 Aus den Ergebnissen dieses CXR Risikoscores, welcher die Lebenserwartung voraussagen kann, lässt sich keine Diagnose ableiten, die man allenfalls behandeln könnte.6

Ist das hilfreich? Warum sollen wir ausserdem beginnen etwas anzunehmen, was nicht erklärt werden kann? Wollen wir zu gläubigen Unmündigen werden, oder wollen wir bei dem bleiben, was wir als Errungenschaft der Aufklärung verstehen; dass wir einen Sachverhalt verstehen, uns eine Meinung bilden und dann entscheiden, was wir wollen. Dazu gehört auch, dass wir uns irren können. Durch einen Irrtum können wir lernen. Wir können uns mit dem auseinandersetzen, wir müssen ihn rechtfertigen und dafür auch Verantwortung übernehmen. So lernen wir, wenn wir uns mit Themen auseinandersetzen, mit belegbaren und verstehbaren Sachverhalten, mit den Regeln der Physik, der Chemie und anderen Wissenschaften. Und garantiert uns dieser Erkenntnisprozess gemeinsam mit anderen Menschen nicht eher einen grösseren Bestand für die Menschheit als die Bewunderung eines technischen Ablaufes, der zweifelsohne im beschränkten Masse zutreffend sein kann, aber den wir nicht verstehen?

Eltern stehen oft ratlos vor dem Verhalten ihrer Kinder. Es mag sein, dass mit genügend Datensätzen künstliche Intelligenz das Verhalten der Kinder frühzeitig einer Diagnose zuordnen kann. Diese Diagnose kann dann mit einem „Tool“ behandelt werden. Das wird immer beliebter gemacht.7/8 Ist damit das zwischenmenschliche Problem wirklich gelöst? Haben die Eltern durch die frühzeitige Feststellung einer „Diagnose“ und durch den Einsatz eines „Tools“ ein besseres Einfühlungsvermögen für ihr Kind entwickelt? Haben sie damit etwas an die Hand bekommen, wie das Kind (so es eine „Störung“ aufweist) befähigt werden kann sich im Austausch mit den Eltern, andern Kindern und Beziehungspersonen soweit wie möglich aus seiner Problematik herauszuentwickeln, oder schränkt das genannte Vorgehen (künstliche Intelligenz/Einsatz von Tools) nicht eher das Potenzial an Verständnismöglichkeiten zwischen Eltern und Kind ein?

Der Einsatz von Waffensystemen, die durch künstliche Intelligenz dirigiert werden, ist im Kriegsfall den menschlichen Fähigkeiten überlegen. Mit Hilfe der künstlichen Intelligenz können in Windeseile relevante Ziele erkannt und es kann zugeschlagen werden. Wird das menschliche Urteil dazwischen geschaltet, ein Problem, worüber sich die Militärs in unserer Welt durchaus Gedanken machen, führt das zur Verlangsamung des Prozesses und unter Umständen zu einer Benachteiligung gegenüber dem Gegner. Aber sind das die Fragen, die die Mehrheit der Menschheit beschäftigen? Die Menschen auf dieser Welt wollen Frieden. Kann die künstliche Intelligenz uns auch sagen, wie wir Frieden schaffen auf dieser Welt? Wäre nicht das die relevante Frage? Das sind Fragen, die die ganze Menschheit beschäftigen, nicht zuletzt die Menschen in allen kriegsgeplagten Ländern! Führt dem gegenüber die Schwerpunktsetzung, die wir gegenwärtig sehen nicht eher zum resignativen „Krieg hat es immer gegeben, wird es immer geben?“ Das sind die relevanten Fragen. Wenn mit Hilfe der künstlichen Intelligenz in Windeseile dafür gesorgt werden könnte, dass wir Frieden haben auf dieser Welt, dann wäre sie wirklich nützlich. Bis jetzt sehen wir davon jedoch wenig und es sieht auch so aus, dass das nicht das Ziel derjenigen ist, die künstliche Intelligenz entwickeln und davon profitieren. Warum stellen wir nicht die Friedensfrage in den Vordergrund? Denn das ist die Frage von Relevanz.

Forschung ist wichtig. Aber Forschung muss dem Menschen dienen, seine evolutionären sozialen Grundlagen zur Basis machen und daraus ergeben sich anders geartete Fragen; Fragen, die die Menschen wirklich beschäftigen. Die evolutionäre Grundlage des Menschen ist die soziale. Wäre dem nicht so, wären wir Selbstbefruchter. Diese soziale Dynamik ist jedoch nicht die Grundlage der meisten Neurowissenschaftler, die heute forschen und die Diskussion bestimmen. Die Diskussion wird bestimmt von der Vorstellung, dass das Gehirn verschiedene Netzwerke besitzt, denen verschiedene Aufgaben zugeschrieben werden, die mit Hilfe der künstlichen Intelligenz potenziert werden können. Diese Grundlage erscheint mir von der Basis her fehlerhaft. Wollen Sie wissen wie Erkenntnisse der Neurowissenschaften aussehen, die die sozialen Grundlagen von uns Menschen ins Zentrum stellen und nicht „autonom funktionierende neuronale Netzwerke des Gehirns an sich“ (was eine Missachtung der evolutionären Gegebenheit impliziert und zu unvollständigen bzw. falschen Ergebnissen führt), so lesen Sie z.Bsp. folgende Bücher:

-Catja Wyler van Laak; Die Arzt-Patient-Beziehung in Zeiten gesellschaftlicher Herausforderungen.
Was zählt? Eine Annäherung unter der Berücksichtigung der sozialen Neurowissenschaften.

Paramon Verlag 2020; ISBN-978-3-03830-594-1.

-Benedetti Fabrizio; The Patient’s Brain; The neuroscience behind the doctor-patient relationship; Oxford University Press 2011 (leider bis heute nicht ins Deutsche übersetzt.) ISBN 978-0-19-957951-8.

Kennen Sie weitere Literatur, die die soziale Grundlage des Menschen zum Forschungsobjekt von Neurowissenschaften machen (soziale Neurowissenschaften genannt), dann schreiben Sie mir unter: c.c.wyler@bluewin.

Catja Wyler van Laak, Januar 2024.


1Esteva A. et al.; Dermatologist-level classification of skin cancer with deep neural networks; Nature 542 (2017); S. 115-118.

2Ebenda.

3Michael T. Lu et al.; Deep Learning to Assess Long-term Mortality From Chest Radiographs; JAMA Network Open 2019;2(7):e197416.doi:10.001, Jamanetworkopen.2019.7416.

4Ebenda S. 9.

5Ebenda S. 10.

6Ebenda S. 9.

7Till Apolline Christine et al.; AI In Child Psychiatry: Exploring Future Tools For The Detection And Management Of Mental Disorders In Children And Adolescents; Psychiatria Danubina 2023, Vol. 35, Suppl2, S. 20-25.

8Vial Th. et al.; Artificial Intelligence in Mental Health Therapy for Children and Adolescents; JAMA Pediatr. 2023; 177(12):1251-1252. Doi: 10.1001/jamapediatrics.2023.4212.