top of page
Salvatore Princi, Kommunikationstraining

Das Huhn-Ei-Problem der KI: Warum wir nie ungefiltert miteinander sprechen.

Aktualisiert: vor 5 Tagen

Das Huhn-Ei-Problem der KI: Warum wir nie ungefiltert miteinander sprechen


Warum Gespräche mit KI nie dort beginnen, wo wir denken.


Vielleicht hast du schon gemerkt, dass Gespräche mit KI manchmal überraschend gut funktionieren und manchmal völlig daneben gehen. Man stellt eine einfache Frage, bekommt aber eine Antwort, die irgendwie nicht passt. Warum passiert das? Im Grunde haben wir es hier mit einem alten Paradox zu tun: das Huhn-Ei-Problem.


Bevor wir überhaupt etwas ins Chat-Fenster tippen, müssen wir unsere Gedanken erst in Worte verwandeln. Und diese Worte sind immer nur ein Teil dessen, was wir eigentlich meinen.


Das ist der Anfang des Gesprächs, so zumindest meinen wir. Denn unser Gespräch beginnt tatsächlich nie dort, wo wir glauben. Es gibt keinen klaren ersten Schritt. Kein «echtes» Huhn und kein «echtes» Ei. Nur zwei Seiten, die sich gegenseitig durch Filter wahrnehmen, die ständig etwas weglassen.


Was wir für einen Dialog halten, ist eigentlich ein Austausch von reduzierten Abbildern und das hat Folgen für unser Denken, unsere Erwartungen und dafür, wie wir Technologie einschätzen.



Wie Sprache entsteht und warum sie immer reduziert, bevor sie verbindet.


Wenn wir verstehen wollen, warum Mensch und KI einander nie vollständig erreichen, müssen wir zuerst begreifen, wie Sprache funktioniert. Sprache wirkt oft klar und direkt. Doch tatsächlich lässt sie immer etwas weg. Jeder Satz ist eine Auswahl und alles, was nicht ausgewählt wird, verschwindet aus dem Gespräch.


Das beginnt schon bei uns selbst. Ein Gedanke besteht aus Bildern, Erinnerungen, Gefühlen, Körperempfindungen und vielen Zwischentönen. Doch sobald wir ihn aussprechen oder eintippen, schrumpft er. Was komplex und reich war, passt dann plötzlich in einen einzigen Satz. Und dieser Satz trägt nur einen Teil dessen, was wir eigentlich meinen.


Für die KI ist dieser Satz die einzige verfügbare Information. Sie sieht nicht die Erfahrungen dahinter, nicht den Kontext, nicht die Nuancen. Sie sieht nur die Wörter und die statistischen Muster, die sie mit diesen Wörtern verbindet. Die KI arbeitet also nicht mit unserem wirklichen Gedanken, sondern mit seiner sprachlichen Reduktion.


Dasselbe passiert rückwärts. Auch die Antwort der KI ist eine Verdichtung. Ein Ergebnis von Wahrscheinlichkeiten, basierend auf unzähligen Texten, die andere Menschen geschrieben haben. Und wir wiederum machen aus dieser Antwort eine Bedeutung. Wir füllen sie mit Erwartungen, mit unseren eigenen Interpretationen, manchmal auch mit Hoffnungen.


So entsteht ein Gespräch, in dem beide Seiten mit stark vereinfachten Versionen der jeweils anderen arbeiten. Und das ist der entscheidende Punkt: Diese Reduktionen sind Teil der Struktur. Ohne sie wäre Kommunikation gar nicht möglich. Aber sie erklären, warum wir oft aneinander vorbeigeraten, gerade auch im Kontakt mit KI.



Warum Mensch und KI keinen gemeinsamen Bedeutungsraum teilen.

Wenn wir über die Kommunikation zwischen Mensch und KI sprechen, wird oft angenommen, dass beide Seiten sich in einem gemeinsamen Bedeutungsraum bewegen, also in einer Art geteilter Welt aus Begriffen, Vorstellungen und Zusammenhängen. Doch ein solcher Raum existiert nicht. Was existiert, sind zwei sehr unterschiedliche Arten, Bedeutung herzustellen.


Für uns Menschen ist Bedeutung an Erfahrungen gebunden. Sie entsteht aus Erinnerungen, aus körperlichem Erleben, aus sozialen Beziehungen, aus biografischen Entwicklungen. Wenn wir ein Wort hören, wird es eingebettet in diesen gesamten Hintergrund. Ein Begriff wie «Zeit», «Freiheit» oder «Nähe» hat für uns immer mehrschichtige Bezüge, die weit über das gesprochene Wort hinausreichen.


Für eine KI dagegen ist Bedeutung nicht erfahrungsbasiert. Sie ist rein funktional. Wörter sind statistische Muster, die in bestimmten Konstellationen auftreten und in anderen nicht. Die KI kann diese Muster erkennen, miteinander verknüpfen, transformieren und daraus neue sprachliche Formen erzeugen. Aber sie verfügt nicht über einen Erfahrungsraum, in dem diese Formen eingebettet wären.


Das bedeutet: Mensch und KI arbeiten mit demselben sprachlichen Material, aber auf völlig unterschiedlichen Grundlagen. Es gibt keinen geteilten Bedeutungsraum, sondern nur eine schmale Zone der Überschneidung, die durch Sprache hergestellt wird. Sprache ist hier nicht Ausdruck eines gemeinsamen Verständnisses, sondern das einzige Werkzeug, das es überhaupt ermöglicht, eine Verbindung zwischen beiden Perspektiven zu erzeugen.


Dieser Punkt ist wichtig: Fehlt der gemeinsame Bedeutungsraum, heisst das nicht, dass Kommunikation unmöglich ist. Es heisst nur, dass beide Seiten auf unterschiedliche Weise zu ihren jeweiligen Bedeutungen gelangen: der Mensch durch Erfahrung, die KI durch Mustererkennung. Die Übereinstimmung, die im Gespräch entsteht, ist immer lokal, nie umfassend. Sie entsteht im Moment, im jeweiligen Satz, im jeweiligen Kontext und nicht aus einem gemeinsamen Hintergrund heraus.


Diese Struktur erklärt, warum wir bestimmte Antworten der KI als treffend erleben und andere weniger. Weil wir unser Verständnis aus Erfahrungen beziehen, während das Modell sein Verständnis aus Wahrscheinlichkeiten formt. Die beiden Systeme berühren sich punktuell. Mehr verlangt diese Form der Kommunikation nicht, und mehr kann sie auch nicht leisten.



Das eigentliche Huhn-Ei-Problem der Mensch-KI-Kommunikation.

Wenn wir das Huhn-Ei-Problem auf die Kommunikation zwischen Mensch und KI übertragen, wird deutlich, dass es dabei nicht um die Frage geht, wer den ersten Schritt macht. Es geht um etwas Grundsätzlicheres: Die Bedeutung, die wir austauschen wollen, hat keinen eindeutigen Ursprung. Sie entsteht erst durch die Filter, die beide Seiten nutzen.


Auf den ersten Blick scheint alles klar: Ein Mensch stellt eine Frage, und die KI antwortet. Doch dieser Ablauf ist nur die sichtbare Oberfläche. Denn bevor die Frage bei der KI ankommt, ist sie bereits das Ergebnis mehrerer Schritte. Ein Gedanke musste in Sprache übersetzt werden. Die Sprache musste ausgewählt und geformt werden. Und dabei sind schon viele Aspekte verloren gegangen.


Die KI wiederum verarbeitet nur diese sprachliche Form. Sie hat keinen Zugang zu den Gedanken, aus denen sie hervorgegangen ist. Ihre Antwort entsteht ebenfalls nicht aus einem inneren Ursprung, sondern aus statistischen Mustern, die sie aus menschlichen Texten gelernt hat. Auch hier gibt es keinen Anfang, keine Intention, keine innere Bedeutung. Es gibt nur eine Auswahl aus Möglichkeiten.


Das Huhn-Ei-Problem zeigt also: Es existiert kein Punkt, an dem Bedeutung ungebrochen zwischen beiden Seiten in die Kommunikation eintritt. Weder der menschliche Gedanke noch die Antwort der KI kann als Ausgangspunkt gelten, weil beide bereits das Ergebnis vorheriger Filterprozesse sind.


Dieses Paradox ist strukturell. Der Mensch kann nicht ohne Sprache kommunizieren. Die KI kann nicht ohne statistische Muster antworten. Beide Systeme setzen etwas voraus, das sie selbst nicht hervorbringen: vollständige Bedeutung auf menschlicher Seite und direktes Verstehen auf maschineller Seite. Beides bleibt unsichtbar, und doch hängt die Kommunikation davon ab.


Das eigentliche Huhn-Ei-Problem lautet also: Bedeutung in der Mensch-KI-Kommunikation hat keinen Ursprung und keine Richtung. Sie entsteht erst im Moment der Wechselwirkung: aus dem, was gesagt werden kann, und dem, was daraus gemacht wird.


Das ist keine Schwäche des Systems, sondern ein Hinweis darauf, dass wir Kommunikation nicht als Fluss vollständiger Inhalte begreifen sollten, sondern als ein fortlaufendes Aushandeln dessen, was in diesem Moment für beide Seiten anschlussfähig ist.



Warum Missverständnisse unvermeidlich sind und was sie wirklich bedeuten.


Wenn die Kommunikation zwischen Mensch und KI auf wechselseitigen Reduktionen beruht, entstehen Missverständnisse nicht durch Fehler oder Unachtsamkeit, sondern aus der Struktur selbst. Das beginnt damit, dass wir Wörter verwenden, deren Bedeutung für uns aus Erfahrung kommt, während die KI dieselben Wörter lediglich als Muster kennt. Für uns trägt ein Begriff emotionale, soziale oder biografische Schichten. Für das Modell ist er Teil eines statistischen Zusammenhangs. Diese beiden Formen von Bedeutung treffen sich im Satz, aber sie decken sich nie vollständig.


Ein weiteres Missverständnis entsteht durch die Art, wie wir Antworten interpretieren. Menschen neigen dazu, Sprache mit Absicht zu verbinden. Wenn jemand etwas sagt, glauben wir, er meint damit etwas. Bei der KI ist das nicht der Fall. Eine Antwort ist keine Aussage über einen inneren Zustand, sondern ein berechnetes Ergebnis. Doch weil die Form der Sprache menschlich wirkt, entsteht leicht der Eindruck, die KI «verstehe» uns oder verfolge eine bestimmte Absicht.


Hinzu kommt ein drittes Missverständnis: Wir sehen oft mehr Einheitlichkeit im Verhalten der KI, als tatsächlich vorhanden ist. Das Modell produziert keine stabilen Meinungen und keine konsistenten Haltungen. Es erzeugt Momentaufnahmen, abhängig vom jeweiligen Input und Kontext. Wenn wir jedoch erwarten, dass die KI sich zu einem Thema immer gleich verhält, projizieren wir ein menschliches Muster von Identität auf ein System, das keine eigene Identität besitzt.


Schliesslich gibt es Missverständnisse, die aus unserer eigenen Reduktion entstehen. Wir glauben manchmal, wir hätten etwas klar formuliert, weil es sich für uns klar anfühlt. Aber was wir sagen, ist nur der sprachliche Ausschnitt dieses Gefühls oder Gedankens. Wenn die KI darauf anders reagiert als erwartet, liegt das nicht daran, dass sie uns widerspricht, sondern daran, dass sie nur mit dem arbeiten kann, was sprachlich sichtbar geworden ist.


Diese Missverständnisse sind kein Zeichen von Inkompetenz, weder auf menschlicher noch auf maschineller Seite. Sie sind die natürliche Folge einer Kommunikation, in der die Grundlage der Bedeutung auf beiden Seiten verschieden ist. Das Ziel ist daher nicht, sie vollständig zu vermeiden, sondern sie zu erkennen und zu verstehen.



Was all das für uns bedeutet: ein realistischer Blick auf den Dialog mit KI


Wenn wir all das zusammennehmen, entsteht ein Bild, das weniger technisch ist, als es zunächst scheint. Es geht nicht nur darum, wie KI funktioniert, sondern darum, wie wir selbst mit Sprache umgehen, wie wir Bedeutung erzeugen und wie wir uns in einem neuen Kommunikationsraum zurechtfinden, der weder völlig vertraut noch völlig fremd ist.


Für den Einzelnen bedeutet das zunächst, achtsam damit umzugehen, was er in die Kommunikation einbringt. Unsere Worte sind nie unser ganzes Denken. Und die Antwort der KI ist nie ein vollständiges Gegenüber. Wenn wir das im Blick behalten, reduziert sich die Gefahr, Antworten überzubewerten oder sie als Spiegel unserer selbst zu missverstehen.


Zweitens bedeutet es, die Grenzen dieses Dialogs nicht als Mangel zu betrachten, sondern als Struktur. KI kann uns beim Denken unterstützen, Zusammenhänge sichtbar machen oder neue Perspektiven eröffnen. Aber sie ersetzt nicht die Erfahrung, aus denen unsere eigenen Bedeutungen entstehen. Das Entscheidende bleibt weiterhin bei uns: die Interpretation, die Einordnung und die Verantwortung für das, was wir aus einer Antwort machen.


Drittens zeigt sich, dass ein bewusster Umgang mit Sprache wichtiger wird. Je klarer wir formulieren können, desto präziser ist der Ausschnitt, den die KI erhält. Aber ebenso wichtig ist das Bewusstsein, dass jede Formulierung etwas auslässt. Auch das gehört zu einem realistischen Verständnis der Möglichkeiten und Grenzen dieser Technologie.


Und schliesslich bedeutet all das, dass wir den Dialog mit KI als das sehen sollten, was er ist: ein Werkzeug, kein Gegenüber. Ein Werkzeug, das unsere Gedanken in Bewegung bringen kann, aber nicht selbst denkt. Ein Werkzeug, das unsere Sprache verarbeitet, aber keine eigene Bedeutung erzeugt. Und ein Werkzeug, das uns immer nur den Teil zurückgibt, den wir ihm zugänglich gemacht haben.


Wer diese Struktur versteht, kann KI produktiv nutzen, ohne sich von ihrer Form täuschen zu lassen. Und vielleicht führt uns genau dieses Wissen dazu, nicht nur die Technologie besser zu verstehen, sondern auch uns selbst und die Art und Weise, wie wir denken, sprechen und Bedeutung erzeugen.

bottom of page