Was ChatGPT und andere Large Language Models (LLMs) über Unternehmen sagen, wirkt oft wie eine objektive Zusammenfassung. Dabei ist es nur eine statistische Verdichtung aus allem, was im Netz auffindbar ist: Pressemitteilungen, Wikipedia-Einträge, Fachartikel, Linkedin-Posts oder Kommentare. Es gibt keine Redaktion, keinen Abgleich und keine Abstimmung. Es handelt sich um eine Gewichtung von bestehenden Informationen.

Wer zum ersten Mal eine KI-Antwort über das eigene Unternehmen liest, erkennt schnell: Das Modell liegt selten komplett falsch. Die Aussagen mögen zwar fragmentarisch korrekt sein, doch in der Summe sind sie verzerrt. Genau darin liegt das Reputationsrisiko – und gleichzeitig eine strategische Chance.

Aus Suche wird Synthese

Bei der klassischen Websuche lag die Auswahlleistung bei den Nutzerinnen und Nutzern. Diese sahen eine Trefferliste und entschieden selbst, welcher Quelle sie vertrauen oder mehr Relevanz zuordnen. Nun übernehmen LLMs diese Auswahlleistung und ersetzen diese durch Synthese und das Zusammenführen von Informationen. Dadurch entscheiden heute die KI-Systeme, welche Quellen relevant sind, wie sie zueinander stehen und welche Erzählung daraus folgt.

Damit ändert sich die Logik von Sichtbarkeit grundlegend. Aus SEO, Search Engine Optimization, wird GEO, Generative Engine Optimization. Aus Auffindbarkeit wird Erzählbarkeit. Die zentrale Frage lautet nicht mehr: Wo stehen wir im Ranking? Sondern: Welches Gesamtbild ergibt sich aus all diesen Quellen?

LLMs glauben nicht einer einzelnen Quelle, sondern Mustern. Wer häufig, konsistent und in vertrauenswürdigen Umfeldern mit bestimmten Themen genannt wird, wird genau dafür stehen. Wer nur auf eigenen Kanälen über sich selbst spricht, existiert für das Modell kaum. Das Ergebnis ist kein Narrativ, sondern ein Mittelwert. Ein statistischer Kompromiss aus allem, was verfügbar ist. Kommunikation, die diese Logik ignoriert, überlässt ihre Reputation dem Zufall.

Erster Schritt: Realitätscheck

Bevor Strategien entwickelt werden, lohnt eine einfache Übung: Welche Antworten geben LLMs heute auf zentrale Fragen wie „Wofür ist [Organisation X] bekannt?“ oder „Welche Anbieter sind vergleichbar?“. Das sollte man nicht nur einmal, sondern mehrfach prüfen – über verschiedene Modelle hinweg.

Praktisch heißt das:

  • Zehn bis 15 Kernfragen definieren, die typische Stakeholder-Perspektiven abbilden (Kunden, Bewerbende, Medien, Politik).
  • Diese Fragen mehreren LLMs stellen, Antworten mit Datum dokumentieren.
  • Wiederholende Aussagen, auffällige Lücken und offensichtliche Fehler markieren.

Entscheidend sind nicht Formulierungsdetails, sondern Wiederholungen. Was taucht konstant auf? Was fehlt systematisch? Welche veralteten Informationen halten sich hartnäckig? So entsteht eine erste Gap-Analyse zwischen Selbstbild und digitaler Verdichtung, ohne Spezialtools, nur mit systematischer Beobachtung und einem Excel-Sheet. Im Unterschied zu klassischer SEO geht es dabei nicht um Rankings im Sinne einer Reihenfolge, sondern um Erzählmuster. GEO ist nicht die Lösung für ein Traffic-Optimierungsproblem, sondern ein wirkungsvolles Werkzeug für die strategische Reputationsarbeit.
 

Realitätscheck per Excel-Liste: Was wissen die LLMs über eine Organisation?
Realitätscheck per Excel-Liste: Was wissen die LLMs über eine Organisation?

Zweiter Schritt: Quellenprüfung

Im nächsten Schritt lohnt der Blick auf die Quellen. Viele LLM-Interfaces legen offen, wovon sie Antworten ableiten. Konsolidiert ausgewertet, geben sie Hinweise darauf, welche Stimmen das Bild einer Organisation tatsächlich prägen.

Um widersprüchliche Angaben zu vermeiden, sollte es eine zentrale Stelle geben, an der alle wichtigen Informationen gebündelt sind. Diese sogenannte Single Source of Truth kann zum Beispiel eine Grounding Page auf der Website sein – also eine spezielle Übersichtsseite, die alle offiziellen Fakten klar und aktuell darstellt und von allen anderen Kanälen als verlässliche Quelle genutzt wird.

Für GEO sind die eigenen Owned-Kanäle jedoch nur die Basis. Höher gewichten LLMs unabhängige Quellen: Fachmedien, Nachschlagewerke, Rankings, Aggregationswebsites wie Trustpilot, Statista oder Check24, die Inhalte aus verschiedenen Quellen bündeln. Earned Media erzeugen Autoritätssignale. Wikipedia, Vergleichsportale und Studien definieren, ob eine Organisation als Referenz gilt oder nur als Selbstdarstellerin. Wer dort nicht vorkommt, existiert im generierten Antwortbild bestenfalls am Rande.

Dritter Schritt: Kontexte schaffen

LLMs lernen Organisationen nicht über Claims kennen, sondern über Zusammenhänge. Wer regelmäßig im Umfeld bestimmter Themen, Probleme oder Wettbewerber erwähnt wird, wird genau damit verknüpft. Reputation entsteht durch Nachbarschaften.

Deshalb ist die entscheidende Frage nicht, was eine Organisation über sich sagt, sondern wo sie genannt wird. Nachhaltigkeit entsteht nicht durch das Wort „nachhaltig“ auf der Website, sondern durch Präsenz in Prüfberichten, Rankings, Zertifizierungen und kritischer Berichterstattung. Wer dort fehlt, bleibt für das Modell unglaubwürdig, egal wie ambitioniert das eigene Narrativ klingt.

Für die Praxis eignen sich drei Hebel:

  • Inhalte: Fachartikel, Interviews, Cases gezielt entlang weniger, klar definierter Zielkontexte planen.
  • Sprache: Wiederkehrende Selbstbeschreibungen nutzen, die Thema und Rolle der Organisation in einem Satz verbinden.
  • Umfeld: Präsenz in Vergleichen, Übersichten, Rankings und Studien aufbauen, in denen Marke und Kategorie gemeinsam auftauchen.

Vierter Schritt: Quellenlandschaft pflegen

LLMs haben keinen Edit-Button. Unliebsame oder gar falsche Angaben verschwinden nicht auf Knopfdruck. Sie verlieren nur an Gewicht, wenn bessere, aktuellere und wichtigere Quellen verfügbar sind. Das beste Mittel gegen negative Reputation in Large Language Models ist, keine negative Reputation zu erzeugen. Das zweitbeste heißt GEO.

Ein Modell nennt noch den früheren CEO? Das ist kein KI-Fehler, sondern ein Pflegeproblem. Korrigiert werden müssen Website, Wikipedia, Branchen- und Wirtschaftsdatenbanken, Presseunterlagen, Social-Media-Profile. Ergänzend helfen Inhalte, die die Veränderung explizit markieren, etwa Interviews oder Meldungen, in denen der Wechsel nachvollziehbar erklärt wird. Die ernüchternde Wahrheit: Prävention ist aufwendig, Korrektur jedoch noch aufwendiger. Wer seine Quellenlandschaft nicht pflegt, delegiert die Korrektur an Modelle. Und diese können nur mit dem arbeiten, was sie vorfinden.

GEO ist keine technische Disziplin. Es ist Reputationsarbeit unter den Bedingungen generativer Systeme. Wer Kommunikation, Public Affairs oder Thought Leadership verantwortet, gestaltet bereits heute die Antworten der KI-Suchsysteme von morgen. Denn in Zukunft entscheidet GEO darüber, welches Bild im Kopf der Zielgruppe hängen bleibt.

Dieser Beitrag wurde erstmals am 12.03.2026 in der gedruckten KOM-Ausgabe #Skills veröffentlicht.

Kontakt