Die renommierte Fachzeitschrift Nature hat gerade einen Artikel mit dem Titel „The Case of Human-Artificial Intelligence (AI) Interaction, System 0 of Thinking“ veröffentlicht. Der Autor gehört zusammen mit einem Forscherteam (Marianna Ganapini, Enrico Panai, Mario Ubiali) zu den Autoren, die sich aus einer multidisziplinären Perspektive mit dem komplexen Thema der Mensch-KI-Beziehung befassen.
Der Artikel stellt eine neue Theorie vor, wie künstliche Intelligenz die Art und Weise verändert, wie wir denken und Entscheidungen treffen. Durch die Interaktion zwischen Menschen und fortschrittlichen KI-Systemen entsteht ein neues kognitives System, das wir „System 0“ nennen.
Um das Konzept von System 0 zu verstehen, ist es nützlich, einen Schritt zurückzutreten und sich an die Theorie zweier Denksysteme zu erinnern, die vom Nobelpreisträger Daniel Kahneman vorgeschlagen wurde. Laut Kahneman nutzen Menschen zwei unterschiedliche kognitive Systeme, um Entscheidungen zu treffen und mit Problemen umzugehen: System 1, das sich durch schnelles, intuitives und automatisches Denken auszeichnet, und System 2, das langsameres, analytisches und reflektierendes Denken darstellt.
System 0 bezieht sich auf die Fähigkeit der KI, komplexe kognitive Aufgaben autonom und unabhängig von unserem biologischen Geist auszuführen. Zu diesen Aufgaben gehören die Verwaltung großer Datenmengen, die Verarbeitung von Informationen und das Treffen algorithmischer Entscheidungen oder Vorschläge.
Im Gegensatz zu System 1 und System 2, die aus „Fleisch und Blut“ bestehen, befindet sich System 0 außerhalb unseres Körpers, ist anorganisch und hat keine innere Fähigkeit, die von ihm verarbeiteten Informationen zu verstehen. Dies bedeutet, dass KI Antworten analysieren und generieren kann, ohne den Inhalt, mit dem sie arbeitet, tatsächlich zu verstehen, sodass der Mensch die Aufgabe hat, die erzielten Ergebnisse zu interpretieren und ihnen eine Bedeutung zuzuordnen.
Diese Ebene der Interaktion zwischen Mensch und KI wird als Grundlage für intuitives (System 1) und analytisches (System 2) Denken angesehen. Mit anderen Worten: System 0 bietet Menschen kognitive Unterstützung, die Informationen effizienter verarbeitet, erfordert aber dennoch menschliches Eingreifen zur Interpretation und endgültigen Entscheidung.
Stellen Sie sich vor, Sie hätten einen unsichtbaren Assistenten, der ständig Informationen filtert, organisiert und präsentiert, um sie leichter verständlich und nutzbar zu machen. Dieser Assistent stellt nicht nur Daten bereit, sondern verarbeitet diese auch entsprechend unseren Vorlieben und Bedürfnissen vor. Letztlich müssen wir jedoch die Entscheidung treffen. Die Gefahr besteht darin, dass wir die Ergebnisse der KI passiv akzeptieren, ohne sie zu hinterfragen, was zu einer Erosion unserer persönlichen Denkfähigkeit führt.
Ein weiteres Problem betrifft Transparenz und Vertrauen: Wie können wir sicher sein, dass KI-Systeme zuverlässig und unvoreingenommen sind und genaue Informationen liefern können? Bis heute haben wir keine Gewissheit, außerdem besteht die Gefahr, dass die zunehmende Integration synthetischer Daten (die nicht direkt aus der Realität erhoben werden) unsere Wahrnehmung und unser Verständnis der Welt verändert. Dies kann sich negativ auf Entscheidungsprozesse auswirken, insbesondere in Kontexten, in denen die Genauigkeit der Informationen von entscheidender Bedeutung ist. / bota.al