Damit nicht Kleber auf unserer Pizza landet

Foto Jeff Mangione

Von Naz Küçüktekin

Seit Kurzem bietet Google bei Suchanfragen auch in Österreich eine KI-Übersicht an. Die Fehleranfälligkeit der KI ist dabei die eine Sache. Dass uns solche Tools vermehrt das eigenständige Denken abnehmen, die andere.Der Prozess des Fragens und Antwortens ist so alt wie die Menschheit selbst. Wer etwas wissen wollte, musste stets Wege finden, um an Informationen zu kommen, und prüfen, ob sie stimmen. Die Mittel haben sich verändert: Meine Eltern blätterten noch in Enzyklopädien, ich konnte schon googeln. Doch das Prinzip des Suchens blieb gleich. Bis jetzt.

Google, die meistgenutzte Suchmaschine weltweit, hat nun ihren KI-Reiter, den es seit vergangenem Jahr in den USA gibt, auch in Österreich, Deutschland und der Schweiz eingeführt. Die „KI-Übersicht“ fasst Suchergebnisse automatisch zusammen. Sie zieht Inhalte aus Websites, Foren und Nachrichtenseiten, ordnet sie neu und präsentiert sie als fertige Antwort. Statt einer Liste von Links erscheint nun ein Textfeld – kein weiterer Klick nötig, kein Weiterdenken. Die Suchmaschine gibt vor.

Was auf den ersten Blick praktisch wirkt, verändert im Kern, was die Internetsuche einmal war. Früher führte Google uns zu Informationen, jetzt liefert die Suchmaschine sie. Was nach technischem Fortschritt klingt, ist in Wahrheit ein tiefer Eingriff in die Informationsökonomie: Wer die Antwort hat, braucht die Quellen nicht mehr.
Das ist ein Problem. Nicht nur für Medienhäuser, deren Artikel künftig weniger angeklickt werden, sondern auch für uns alle, die im Netz nach Wissen suchen. Denn die KI verrät nicht, auf welche Quellen sie sich stützt, wie sie Prioritäten setzt oder welche Perspektiven sie ausblendet. Sie präsentiert Suchergebnisse als Tatsachen.

Damit verschiebt sich das Machtverhältnis zwischen den Nutzenden und der Suchmaschine. Früher entschieden wir selbst, welchen Link wir öffneten, welcher Quelle wir vertrauten, welchen Widerspruch wir gelten ließen. Heute entscheidet das System.

Transparenz war einst ein Kernversprechen des Internets. Mit der KI-Suche verwandelt sich diese Offenheit in eine Blackbox. Die Maschine erklärt, aber sie erklärt sich nicht selbst. Besonders heikel ist, dass Google damit nicht nur Informationen vermittelt, sondern auch ihre Form und Reihenfolge definiert. Wenn die KI eine Zusammenfassung erstellt, geschieht das auf Basis von Wahrscheinlichkeiten, nicht Wahrheiten. Sie erkennt Muster, keine Argumente. Das Risiko: Fehler oder Verzerrungen schleichen sich unbemerkt ein.

Wir verlernen zu suchen
Schon in den ersten Wochen nach Einführung der Funktion in den USA kursierten Beispiele falscher oder absurder Antworten. So empfahl die KI auf eine Google-Suchanfrage, wie man verhindern könne, dass der Käse von der Pizza rutscht, einfach Klebstoff zu verwenden.
Ein vielleicht geringeres Übel, wenn man bedenkt, was sonst noch auf dem Spiel steht – etwa der Journalismus. Wenn Google Nachrichteninhalte zusammenfasst, fließt die Arbeit vieler Redaktionen in ein Produkt, das Klicks abzieht und Einnahmen schmälert. Die Suchmaschine profitiert doppelt: von den Texten anderer und vom Vertrauen der Nutzerinnen und Nutzer. Medienhäuser dagegen verlieren Sichtbarkeit, obwohl sie die Grundlage der KI-Antworten liefern.

Man kann das eine schleichende Enteignung nennen. Wissen, das öffentlich zugänglich ist, wird von einem Konzern neu verpackt und in eine Antwort gegossen, deren Ursprung unsichtbar bleibt.

Auf Nutzerseite hat das Folgen, die weniger ökonomisch, aber umso tiefgreifender sind. Wenn wir Informationen nur noch in vorgefilterter Form konsumieren, verlernen wir, selbst zu prüfen. Wir verlernen zu suchen.
Natürlich war eine Google-Suche nie neutral. Schon bisher entschieden Algorithmen über die Reihung der Ergebnisse. Doch die KI-Übersicht verstärkt diesen Trend. Sie ersetzt die Auswahl durch ein Urteil. Vielleicht liegt darin die eigentliche Gefahr dieser neuen KI-Übersicht: nicht, dass sie Fehler macht, sondern dass sie uns das Denken abnimmt. Die Bequemlichkeit, die sie verspricht, ist zugleich ein Verlust an Autonomie.
Und doch bleibt uns etwas, das keine Maschine ersetzen kann: die Fähigkeit, selbst zu fragen. Vielleicht sollten wir sie nicht zu schnell aufgeben – nicht einmal dann, wenn die Antwort schon dasteht.


Naz Küçüktekin ist seit 2018 als Journalistin tätig. Seit 2023 arbeitet sie als freie Journalistin. Sie ist Organisationsmitglied des Netzwerks „Klimajournalismus Österreich“ und Teil des „FYI-Kollektivs“. Mit den Vereinen „Lie Detectors“ und „Digitaler Kompass“ ist sie als Medientrainerin regelmäßig an Schulen unterwegs, um über Fake News aufzuklären.


Teilen auf:
Facebook