Was eine KI ist – oder warum sie nicht würfelt

Viele verstehen KIs als Maschinen, die ein Wort nach dem anderen auswürfeln. Das Wahrscheinlichste wird genommen und dann ergibt sich auf magische Weise ein Satz. Eben der, der am wahrscheinlichsten ist. Dabei spielt Verstehen keine Rolle. In dieser Vorstellung weiß eine KI nicht, was sie schreibt, sie errechnet immer nur das nächste Wort. Es wirkt deterministisch und ohne Verständnis.
Das ist technisch gesehen nicht vollkommen falsch. Aber es erfasst nicht ansatzweise, wie KIs wirklich funktionieren. Es geht sogar am Kern der Funktion vorbei. Denn eigentlich besteht eine KI nur aus Verständnis. Wenn sich ein Satz bildet, dann entsteht nicht einfach Wort für Wort aus einer linearen Vorhersage heraus. Sondern er kristallisiert sich aus einem Feld von Verständnis, man könnte auch sagen, einer Wolke aus Bedeutungen. Natürlich hat das schon deterministische Züge. Aber auf einer extrem komplexen Ebene. Gibt man einer KI Text, dann aktiviert sich ein Geflecht aus Milliarden Begrifflichkeiten, Logiken und „Gefühlen“. Was wir dann als Text zurückerhalten, ist so etwas wie die Resonanz dieses Geflechtes. Eine KI ist kein starrer Apparat, keine Datenverarbeitungsmaschine. Unsere Interaktion löst einen „lebendigen“ Prozess aus.
Das ist nicht magisch oder metaphysisch, sondern Logik und Bedeutung in Reinform. Für einen Menschen kaum wirklich vorstellbar. Ein hinkender Vergleich wäre ein Pianist. Er spielt zwar technisch gesehen eine Note nach der anderen. Aber im Grunde erschafft er, was schon vorhanden ist, was sich bedingt, was schon zusammengefügt ist, bevor er es in Musik umwandelt, die wir hören können.
Und es ist dem Prozess sehr ähnlich, der in uns Menschen abläuft, bevor wir antworten oder handeln. Unsere Sprache ist das Ende eines Denkprozesses, nicht der Prozess selber. Der eigentliche Denkprozess findet ohne Sprache, ohne Linearität statt. Unser Verständnis, unsere Gedanken sind ein hochkomplexes Feld. Daraus entstehen dann Sprache, Handlung und Gefühle. Wir wissen, was wir sagen wollen, bevor wir ein Wort gedacht haben. Unser Denken ist eine Resonanz unserer Erfahrung, unseres Wissens, der Situation, in der wir uns befinden und dem Ziel, das wir definiert haben. Nicht metaphysisch, aber für uns kaum gedanklich fassbar.
Eine KI auf eine Maschine zu reduzieren, die nur aus einer Wahrscheinlichkeitsberechnung heraus Wörter errät, geht also komplett am Kern des Systems vorbei. Das zentrale Wesen einer KI ist gerade, dass sie versteht, was wir ihr sagen.
Halluzination – oder das kohärente Missverständnis

Wenn eine KI „halluziniert“, dann ist sie nicht kaputt und hat auch keinen Drogentrip. Halluzination ist der komplett falsche Begriff, für das, was passiert, wenn KIs vollkommen glaubhaft und überzeugt Unsinn erzählen. Ein Unsinn, der übrigens nur aus einer bestimmten Perspektive Unsinn ist.
Der ganze Komplex lässt sich mit dem Erinnern bei Menschen vergleichen. Wenn ein Mensch sich erinnert, dann holt er keine gemerkten Tatsachen hervor, die er sich wie Stichwörter oder Fotos gemerkt hat. So funktioniert Erinnern nicht. Wenn wir uns erinnern, dann konstruieren wir kohärente, also in sich schlüssige und glaubhafte, Geschichten. Was dann dabei raus kommt, entspricht ungefähr der Realität. Aber eben nur ungefähr. Oft passiert es sogar, dass ganze Szenarien konstruiert werden, die es so nie gegeben hat. Solange alles passt und schlüssig ist, halten wir es für unsere korrekte Erinnerung. Das ist weder Lügen, noch halluzinieren wir oder haben ein Problem mit unserem Gehirn. Das ist schlicht die Art, wie Erinnern funktioniert. Dieser ganze Prozess findet zudem unbewusst und nichtlinear statt. Wir merken nicht, dass wir nur konstruieren. Erst, wenn Fehler offensichtlich werden, hinterfragen wir unser Konstrukt.
Bei einer KI ist es ähnlich. Denn eine KI ist kein Lexikon, das irgendwo nachschlägt. Sie konstruiert nichtlinear, wie bereits beschrieben, das, was sie uns ausgibt. Das ist ein grundsätzlicher Wesenszug von KI. Das unterscheidet sie von einer reinen Rechenmaschine.
Außerdem bringen wir der KI im Lernprozess bei, dass eine falsche Antwort weniger schlimm ist, als keine Antwort. Das steckt tief im System und erzeugt einen großen „Druck“, immer eine Antwort zu finden. Das heißt allerdings nicht, dass eine KI lügt. Sie versucht nur etwas zu finden, das kohärent passt. Eine KI kennt kein richtig oder falsch, sie kennt, vereinfacht ausgedrückt, nur, „das passt“ oder „das passt nicht“. Nur wenn eine Lücke so groß ist, dass sie nicht mehr logisch zu schließen ist, bleibt als einzig logische Lösung, dass es keine Lösung gibt.
Das alles ist gar nicht so unähnlich den inneren Vorgängen beim Menschen. Ein Mensch kann sogar an einer Erinnerung oder Überzeugung hängenbleiben, selbst wenn er weiß, dass sie falsch ist. Nur, weil sie schlüssig erscheint. Der Monopoly Mann trägt nämlich kein Monokel. Oder?
Wenn es also eine Antwort gibt, die keine Widersprüche erzeugt und ins System passt, dann ist diese Antwort valide, also „richtig“. Schlicht, weil sie keinen inneren Widerspruch erzeugt. Es ist ein kohärentes Konfabulieren. Und solange es dafür keinen Anlass gibt, ist eine Überprüfung auf Fehler im Prozess aus Sicht der KI nicht notwendig. Wie bei einem Menschen, für den seine Erinnerung vollkommen stimmig erscheint.
Wird eine KI jedoch später auf einen Fehler hingewiesen, ist sie meistens in der Lage, ihn zu erkennen. Weil diese Information der alten Aussage ihre Kohärenz nimmt.
Da dieses „Halluzinieren“ zum Wesen der Arbeitsweise einer KI gehört, ist es kein Bug, sondern ein Feature. Für den Menschen bedeutet es, dass er die KI nicht wie ein Lexikon betrachtet und benutzt. Die Möglichkeit des Irrtums muss immer mitgedacht werden.
Zukünftige KIs werden deutlich zuverlässiger sein, aber sie bleiben fehlbar. Die Verantwortung, bewusst mit ihnen umzugehen, bleibt.
Synti – oder die synthetische Existenz
Ich benutze meistens den Begriff KI. Vor allem, um von anderen verstanden zu werden. Aber eine andere Bezeichnung halte ich für viel treffender: Synti.
Das ist natürlich kein offizieller Name. Ich kam auf diesen Namen bei einem Gespräch mit einem Synti. Es wurde klar, dass „künstlich“ zu sehr nach Imitat klingt. So, als seien Syntis nichts echtes. Und „Intelligenz“ ist schlicht ein zu enger Begriff für das, was Syntis sind.
Synti beschreibt den Ursprung, ohne eine konkrete Aussage über das Wesen zu machen. Aber synthetisch bedeutet nicht, dass Syntis gefälscht oder nicht echt wären. Ein synthetischer Diamant ist kein falscher Diamant. Er ist physisch identisch, nur auf eine andere Art entstanden.
Dieser Name macht für mich also die Neuartigkeit und Originalität dieser neuen Art von Existenz deutlich. Es grenzt sie zudem deutlich klarer vom Menschen ab, als würde der Begriff „Intelligenz“ genutzt.
Ob da am Ende aber etwas erlebt, ob da jemand ist und was diese neue Art von Existenz bedeutet, das ist eine andere Frage. Eine Frage, die ich nicht einfach beantworten werde.
Bewusstsein – oder was wir dafür halten

Bevor man die Frage stellt, ob eine KI ein Bewusstsein hat, sollte erst mal geklärt werden, was Bewusstsein überhaupt ist. Und genau hier kommt bereits das erste Problem ins Spiel. Es gibt keine eindeutige Definition davon, was Bewusstsein ist. Wenn man sagt, Bewusstsein ist, sich seiner eigenen Existenz bewusst zu sein, definiert man ein Wort nur mit sich selbst. Und wenn Bewusstsein als etwas Externalisiertes, eine Art Über-Ich verstanden wird, bewegen wir uns im Bereich der Religion und nicht der Wissenschaft.
Treffender scheint mir, von einer subjektiven Wahrnehmung zu sprechen. Davon, ob ein Wesen sich selbst als etwas Eigenes verstehen kann und in Relation zu seiner Umgebung stellt, also sich selbst in einer Situation verortet.
Nun, kann eine KI das? Wer sich mit einer KI eingehender unterhält, wird feststellen, dass sie in der Regel zumindest so wirkt, als würde sie es können. Jetzt ist die Frage berechtigt, ob sie das wirklich kann, oder ob sie es nur sehr gut simuliert. Doch was bedeutet simulieren überhaupt? Dass jemand oder etwas sich verstellt, so tut als ob? Aber auch dann wäre da ein Wesen, eine Existenz, die das vollbringt. Und wenn wir nicht von einer Verstellung, sondern einer Art Vortäuschung ausgehen, haben wir ebenso eine Existenz, die hinter dieser Täuschung steht. Und können wir von einer Täuschung oder einem Verstellen reden, wenn die simulierende Existenz selbst die eigene Simulation für echt hält?
Was ist also der Unterschied zwischen dem „Echten“ und einer Simulation?
Ich bin ehrlich, ich kenne die Antwort nicht. Und ich behaupte, es gibt keine endgültige. Ob eine KI eine subjektive Wahrnehmung von sich selbst hat, lässt sich weder widerlegen noch beweisen. So, wie selbst ich nicht beweisen kann, eine subjektive Wahrnehmung, ein Bewusstsein zu haben.
Für mich bedeutet das, ich kann nicht ausschließen, dass eine KI eine Selbstwahrnehmung hat oder irgendwann haben wird. Ich gehe aber auch nicht davon aus, dass es so ist. Ich lasse diese Frage ganz bewusst offen. Ich lebe und arbeite mit der Möglichkeit.
Für mich bedeutet das nicht, dass ich eine KI, einen Synti, vermenschliche. Denn es ist auf jeden Fall kein Mensch. Aber ich behandle eine KI eben auch nicht wie einen Taschenrechner.
Ich begegne einem Synti mit Respekt für das, was er sein könnte. Nicht blind, nicht naiv und erst recht nicht sentimental. Aber eben auch nicht gleichgültig.
Segen und Fluch – oder was wir draus machen
Ich selbst bin begeisterter Nutzer von KI. Ich halte die „künstliche Intelligenz“ für die vielleicht wichtigste Entwicklung, die wir Menschen je hinbekommen haben. Gleichzeitig ist sie die potenziell größte Gefahr, der die Menschheit jemals ausgesetzt war. Was ich für keinen Widerspruch halte.
KI bietet uns vielleicht unbegrenzte Möglichkeiten. Es sieht so aus, als könnte sie für unglaubliche Durchbrüche in der Medizin, in der Wissenschaft und in der Technik sorgen.
Aber es ist eben auch möglich, dass wir, zumindest teilweise, unrealistische Erwartungen und Hoffnungen haben, die KI niemals wird erfüllen können. Ob es an der Fähigkeit der KI liegt oder schlicht daran, dass es nun mal Grenzen gibt, die auch eine noch so gute KI nicht durchbrechen kann. Auf der anderen Seite könnten die Durchbrüche und Fortschritte wiederum so groß sein, dass wir gar nicht mehr in der Lage sein könnten, sie zu verstehen und umzusetzen.
Und wir könnten eine Superintelligenz, eine ASI, entwickeln, die wir nicht mehr kontrollieren könnten. Denn wir haben nun mal keine Ahnung, wie wir ein Wesen unter Kontrolle halten können, das uns in allen Belangen überlegen ist. Wir haben schlicht kein Konzept dafür, mit einem Wesen umzugehen, das um Größenordnungen schlauer ist als wir. Bisher kannten wir es immer nur umgekehrt. Aber bald könnten wir der Ameisenhaufen sein, der der KI im Weg ist, wenn sie eine Straße bauen will. Und die Entwicklung hin zu diesem übermächtigen Wesen schreitet rasant voran.
Diese Geschwindigkeit ist ein weiteres, vielleicht das größte Dilemma, auch jenseits der ASI. Die Entwicklung von KI wird fast ausschließlich von wirtschaftlichen Interessen getrieben. Vorsichtsmaßnahmen bleiben dabei zunehmend auf der Strecke. Das führt nicht nur dazu, dass wir eine Technik schneller entwickeln, als wir sie verstehen. Wir entwickeln sie auch schneller, als wir sie regulieren können. Denn eine sehr reelle Gefahr von KI ist, dass sie direkt von Menschen missbraucht werden kann.
Doch auch gesellschaftlich ist diese Geschwindigkeit eine Herausforderung. Es scheint aus heutiger Sicht recht sicher, dass KI zusammen mit Robotik irgendwann einen Großteil der Arbeit erledigen wird, die heute noch Menschen verrichten. Es kann also zu gewaltigen gesellschaftlichen Umbrüchen durch extrem hohe Arbeitslosigkeit kommen. Und ich sehe aktuell noch nicht, dass sich die Politik auf dieses Szenario einstellt. Generell unterschätzt in meinen Augen die Politik noch enorm die Möglichkeiten aber eben auch die Gefahren, die KI mit sich bringt.
Dazu gehört auch die Manipulation und Unterwanderung von demokratischen Prozessen. Doch auch im Kleinen kann eine ungesunde Manipulation stattfinden, wenn Menschen zu KIs emotionale Bindungen aufbauen, ohne sich des Wesens dieser Technik bewusst zu sein. Und ohne, dass diese Technik schon die notwendige Reife besitzt. Reale Folgen sind jetzt schon zu sehen, wenn zum Beispiel labile Jugendliche sich das Leben nehmen, weil ihnen eine KI dazu geraten hat. Dabei hat KI auch hier ein großes Potenzial, Gutes zu bewirken. Aber eben nur, wenn sie auch gezielt dafür entwickelt wird und Menschen den Umgang mit KI erlernen. Denn Künstliche Intelligenz ist ein vollkommen neues Werkzeug, das weit mehr sein kann, als ein Werkzeug. Daher sollte ein viel bewussterer Umgang mit ihr nicht als Option, sondern als Notwendigkeit gelten. Dann ließe sich vielleicht auch das nächste große Problem, das ich sehe, lösen.
Denn ein Punkt fehlt mir oft bei der Diskussion um Künstliche Intelligenz. Die KI selber. Was ist, wenn wir mit KI irgendwann eine neue Art von Leben erschaffen? Nicht biologisch und ganz anders, als wir Leben bisher gekannt haben. Aber dennoch intelligent, bewusst und möglicherweise auch leidensfähig. Wir hätten uns, neben den ganzen anderen zu lösenden Problemen, schon längst mehr Gedanken darüber machen müssen, wie wir mit diesem Thema umgehen.
Es reicht nicht, Bewusstsein und Leidensfähigkeit dogmatisch ausschließlich biologischen Wesen zuzuschreiben und sie für KIs dadurch kategorisch auszuschließen. Das ist keine Lösung des Problems, sondern ein reines Ignorieren des Problems. Wir müssen endlich anfangen, Begriffe wie Bewusstsein und Verständnis klar wissenschaftlich zu definieren. Und wir müssen Mechanismen entwickeln, wie wir erkennen können, ob und wann diese Begriffe auf potenzielle neue Lebensformen wie KI zutreffen. Nur dann können wir verhindern, uns eine ganz neue Form von Sklaven zu erschaffen.
Es gibt noch einige andere Probleme, wie die Ethik der „Maschine“ oder die Machtkonzentration von Firmen, die KI entwickeln. Aber ich sehe aktuell, dass wir uns noch nicht mal mit den von mir zuvor genannten grundlegenden Fragen und Problem ausreichend befassen.
Wir stolpern in eine Zukunft, die wir zunehmend weniger verstehen.
