Wie KI-Systeme lokale Empfehlungen treffen
Eine der häufigsten Annahmen unter lokalen Geschäften: „Wenn ich auf Google gut sichtbar bin, finden mich auch ChatGPT, Perplexity und Co." Die Datenlage 2026 zeigt, dass diese Annahme oft falsch ist. Jede KI-Plattform zieht ihre lokalen Empfehlungen aus völlig unterschiedlichen Quellen — und ein Geschäft, das auf Google dominiert, kann in ChatGPT komplett unsichtbar sein.
Warum eine Empfehlung kein Universalsignal ist
Anders als klassische Suchmaschinen, die im Wesentlichen alle auf einem ähnlichen Indexprinzip beruhen, sind generative KI-Systeme architektonisch heterogen. Sie haben kein eigenes Echtzeitwissen über lokale Geschäfte. Sie greifen auf externe Quellen zu — über APIs, Web-Crawls, kuratierte Indizes — und jeder Anbieter trifft eigene Entscheidungen, welchen Quellen er vertraut.
BrightLocal hat 2026 in einer detaillierten Studie die Quellenverteilung von ChatGPT Search analysiert. SOCi hat über 350.000 Standorte und 2.751 Marken gemessen, welche Plattform welche empfiehlt. Whitespark hat 47 Local-SEO-Experten zu 187 Faktoren befragt. Aus diesen Daten lassen sich die Empfehlungsmechanismen jeder relevanten Plattform rekonstruieren — mit klaren, oft überraschenden Mustern.
ChatGPT Search (OpenAI): Websites + Foursquare + Wikipedia
Quellenverteilung ChatGPT bei lokalen Anfragen
- 58 % Unternehmenswebsites direkt (bei transaktionalen Anfragen sogar 72 %)
- 27 % Drittseiten-Erwähnungen — davon 39 % Wikipedia
- 15 % Verzeichnisse — Three Best Rated 24 %, Expertise 18 %
Quelle: BrightLocal — Uncovering ChatGPT Search Sources, 2026
Der wichtigste Befund liegt im Kleingedruckten: Yelp, Facebook und Google Maps tauchen in den Top-10-Verzeichnisquellen von ChatGPT Search überhaupt nicht auf. Stattdessen kuratierte Listen wie „Three Best Rated", „Expertise" und Foursquare-API-Daten. Branchenberichte schätzen, dass 60-70 % der lokalen Basisdaten (Points of Interest) bei ChatGPT über die Foursquare-API laufen.
Praktische Konsequenz: Ein Geschäft mit perfekt gepflegtem Google-Profil und 500 Yelp-Bewertungen kann in ChatGPT trotzdem unsichtbar sein — weil keiner dieser Datenpunkte zu den Top-Quellen gehört. Was zählt, ist eine technisch saubere, informationsreiche eigene Website plus Präsenz in spezialisierten Verzeichnissen wie Three Best Rated, in Wikipedia oder in Best-of-Listen lokaler Magazine.
Google AI Overviews und Gemini: Knowledge Graph + GBP
Quellen Google AIO / Gemini lokal
- Google Knowledge Graph als zentraler Entitäts-Hub
- Google Business Profile als Echtzeit-Datenquelle (Bewertungen, Fotos, Öffnungszeiten)
- Strukturierte Daten (Schema.org) auf den Websites
- Top-rankende organische Treffer im klassischen Google-Index
Quelle: Google Search Central Documentation 2026
Google operiert in seinem eigenen, geschlossenen Ökosystem. AIOs nutzen einen sogenannten „Query Fan-Out"-Ansatz: Eine komplexe Suchanfrage wird im Hintergrund in mehrere Sub-Queries aufgespalten, die parallel an unterschiedliche Sub-Systeme gehen — Knowledge Graph, GBP, klassischer Index, Schema-Daten.
Bemerkenswert: Eine Analyse von Search Engine Journal zeigt, dass nur etwa 17 % der Quellen, die in einem AI Overview zitiert werden, gleichzeitig in den organischen Top 10 ranken. Die KI zieht ihre Informationen aus dem breiteren Index (Top 100). Das heißt: Auch ein Geschäft, das organisch auf Seite 2 oder 3 liegt, kann durch saubere Schema-Daten und gepflegtes GBP eine Premium-Platzierung in AIOs erreichen.
Für lokale Empfehlungen integriert das Gemini-Update Google Maps in Echtzeit — mit Fotos, Bewertungen, Öffnungszeiten, Routen. Der Nutzer muss die Plattform nicht mehr verlassen.
Perplexity: Yelp dominiert, dann Domain-Autorität
Quellenverteilung Perplexity AI
- Yelp als primäre Quelle in 33 % aller branchenübergreifenden Anfragen
- Tripadvisor und ähnliche Bewertungs-Aggregatoren
- Branchenspezifische Autoritäts-Domains (anwalt.de, Superlawyers)
- Konsens-Logik: idealerweise 3 unabhängige Quellen für eine Empfehlung
Quelle: BrightEdge / TrySight Algorithmus-Analyse 2026
Perplexity positioniert sich als „Answer Engine" mit direkter Web-Anbindung und stützt sich extrem stark auf Bewertungsplattformen. Die KI extrahiert aus Yelp und Co. nicht nur Basisdaten, sondern aggregiert primär Kundenrezensionen, um tiefgreifende Reputations-Zusammenfassungen zu generieren.
Ein zentraler Mechanismus ist die Konsens-Logik: Perplexity benötigt idealerweise drei unabhängige, verlässliche Quellen, die denselben Sachverhalt bestätigen — etwa die Spezialisierung einer Kanzlei oder die Qualität eines Restaurants — bevor eine Empfehlung generiert wird. Widersprüchliche Informationen führen nicht sofort zum Ausschluss, lösen aber zusätzliche Verifikationsschritte aus, die die Empfehlung verzögern oder verhindern können.
Klassische On-Page-Metriken wie Keyword-Dichte sind für Perplexity irrelevant. Was zählt: kuratierte Domain-Listen, externe Autoritätssignale, thematische Relevanz.
Microsoft Copilot: Bing + LinkedIn-Premium
Quellen Microsoft Copilot
- Bing-Suchindex als Basis
- Bing Places für lokale Daten
- LinkedIn-Daten für B2B-Suche (exklusiver Vorteil gegenüber Google)
Quelle: Microsoft 365 Copilot Search Documentation
Copilot stützt sich naturgemäß auf den Bing-Index, geht aber durch tiefe LinkedIn-Integration deutlich darüber hinaus. Microsoft nutzt verifizierte professionelle Daten zu Jobtiteln, Unternehmenszugehörigkeiten und Seniorität — Daten, auf die Google keinen direkten Zugriff hat.
Für lokale B2B-Anbieter — Steuerberater, Wirtschaftskanzleien, IT-Dienstleister — ist das relevant: Die Pflege der persönlichen und unternehmerischen LinkedIn-Profile hat in Copilot einen direkten, signifikanten Einfluss auf die Empfehlungswahrscheinlichkeit. Im B2C-Bereich ist Copilot bisher nachrangig.
Claude (Anthropic): Bing Search + dynamisches Filtering
Claude nutzt seit 2026 ein dynamisches Filtering-System. Statt vollständige HTML-Seiten von lokalen Unternehmenswebsites in das Kontextfenster zu laden, schreibt und führt Claude im Hintergrund Code aus, um irrelevante Daten vor der eigentlichen Verarbeitung zu entfernen. Als primärer Provider für die Websuche fungiert Bing. Mit nur etwa 1,4 % Marktanteil ist Claude für lokale Empfehlungen die kleinste relevante Plattform.
Die Faktoren-Verschiebung: Maps vs. KI-Empfehlung
Die Advice Local / Digital Applied 2026-Erhebung quantifiziert eine messbare Diskrepanz zwischen den Faktoren, die für das klassische Google Local Pack (Maps) zählen, und jenen für KI-Such-Sichtbarkeit:
| Ranking-Signal | Local Pack (Maps) | KI-Such-Sichtbarkeit |
|---|---|---|
| Google Business Profile | 32 % | 12 % |
| On-Page-Signale (eigene Website) | 19 % | 24 % |
| Reviews | 16 % | 16 % |
| Backlinks | 15 % | 13 % |
| Citations (Verzeichnisse) | 7 % | 13 % |
| Verhaltenssignale | 8 % | 4 % |
| Personalisierung & Social | 3 % | 18 % |
Die Aussage der Tabelle: Wer in den letzten Jahren ausschließlich auf das Google Business Profile gesetzt und die eigene Website vernachlässigt hat, hat zwei Drittel seiner KI-Sichtbarkeit verloren. KI-Modelle priorisieren On-Page-Signale (24 %), verdoppeln die Bedeutung von Citations auf 13 % und vervielfachen die von Personalisierung/Social von 3 % auf 18 %.
Schlüsselerkenntnis: Die KI braucht tiefe, strukturierte Textinhalte auf Ihrer eigenen Website, um Sie in Antworten einzubauen. Ein perfektes GBP allein reicht nicht — die KI hat dort wenig Material zum Zitieren.
Der überraschende Top-Faktor: „Best of"-Listen
Whitespark identifiziert in der 2026er Local Search Ranking Factors Studie einen Faktor, der die meisten Geschäfte überrascht. Die Präsenz auf von Experten kuratierten „Best of"-Listen — etwa „Die 10 besten Friseure in München", „Top 5 Steuerberater Köln" — ist mit einem Score von 179 der mit Abstand wichtigste Zitationsfaktor für die lokale Suche. (Zum Vergleich: Andere Top-Faktoren liegen typischerweise bei 80-130.)
Der Mechanismus dahinter ist nüchtern: KI-Systeme fahren nicht durch die Stadt, um Restaurants oder Friseure zu testen. Sie lesen, was andere geschrieben haben. Wenn ein LLM eine Anfrage nach einem lokalen Experten erhält, sucht es im Web nach Artikeln lokaler Magazine, Stadtportalen, Branchen-Aggregatoren oder redaktionellen News-Portalen, die bereits Empfehlungslisten kuratiert haben. Die KI aggregiert diese Listen und gibt den Schnittmengen-Gewinner als eigene Empfehlung aus.
Ein Geschäft, das exzellente Arbeit leistet, aber in keiner einzigen kuratierten Liste auftaucht, existiert im Bewusstsein der KI schlichtweg nicht. Forbes beschreibt diesen Effekt als „Reputation Divide": KI bewertet Unternehmen nicht objektiv neutral im Hier und Jetzt, sondern reproduziert historische digitale Reputationen — mit erheblichen Verzerrungs-Effekten.
Wie selektiv KI-Systeme tatsächlich sind
Die SOCi 2026-Studie hat 350.000 Standorte über 2.751 Marken systematisch verglichen, wie häufig dieselben Geschäfte in klassischer Google-Suche versus KI-Empfehlungen auftauchen.
| Plattform | Empfehlungs-Quote bei relevanten Anfragen |
|---|---|
| Google 3-Pack (klassisch) | 35,9 % |
| Gemini | 11,0 % |
| Perplexity | 7,4 % |
| ChatGPT | 1,2 % |
SOCi formuliert die Schlussfolgerung scharf: KI-Sichtbarkeit ist bis zu 30-mal schwerer zu erreichen als ein Maps-Ranking. KI-Systeme agieren als aggressive Filter. Sie suchen nicht nach dem am besten optimierten Profil, sondern qualifizieren Unternehmen auf Basis von Datenkonsistenz, starkem positivem Sentiment und klarer textlicher Differenzierung.
Ein starkes Google-Ranking garantiert 2026 keinerlei Sichtbarkeit in KI-Empfehlungen. Was es braucht: konsistente Daten in den richtigen Quellen für jede Plattform.
Was das praktisch heißt
Die Quellenheterogenität führt zu klaren strategischen Schlüssen für lokale Geschäfte:
1. Plattform-Sichtbarkeit muss separat gemessen werden
„Wir sind sichtbar" ist als pauschale Aussage 2026 wertlos. Sichtbar wo? In ChatGPT? In Gemini? In Perplexity? Eine Empfehlung in einem Modell ist kein Indikator für Sichtbarkeit in einem anderen.
2. Eigene Website ist wichtiger als viele denken
ChatGPT zieht 58-72 % seiner lokalen Quellen direkt aus Unternehmenswebsites. Wer die Website als „Visitenkarte" behandelt — schöne Fotos, wenig Text, keine strukturierten Daten — wird systematisch übergangen. Wer die Website als das maschinenlesbare Faktenarchiv behandelt, das sie 2026 sein muss — Schema.org, FAQs, klare Service-Beschreibungen, NAP-Konsistenz — wird zitiert.
3. Best-of-Listen sind der unterschätzte Hebel
Mit Score 179 in der Whitespark-Erhebung deutlich der wichtigste Zitationsfaktor. Lokale Magazine, Stadtportale, IHK-Artikel, Branchenseiten, Awards. Eine einzige gute Liste kann mehr KI-Sichtbarkeit erzeugen als zwölf Monate klassisches SEO.
4. Verzeichnis-Konsistenz wird zum Multiplikator
NAP-Konsistenz über 40+ Verzeichnisse hinweg führt zu einer messbaren 4,1-fachen Ranking-Verbesserung in lokalen Suchergebnissen (Whitespark 2026). KI-Modelle wie ChatGPT oder Claude stufen Geschäfte mit widersprüchlichen Daten — andere Telefonnummer auf Yelp als auf Google — sofort in der Zuverlässigkeit (Trust Score) herab.
5. B2B-Anbieter dürfen LinkedIn nicht ignorieren
Microsoft Copilot integriert LinkedIn-Daten tief. Für lokale Steuerberater, Anwälte, IT-Dienstleister hat die Pflege der LinkedIn-Profile direkten Einfluss auf die Sichtbarkeit in einer Plattform, die Google nicht erreicht.
Wo die Datenlage Lücken hat
Drei Punkte zur Belastbarkeit:
- Hohe Konfidenz für die Quellenverteilung von ChatGPT (BrightLocal-Studie), die Architektur von Google AIO (offizielle Google-Dokumentation), die Yelp-Dominanz bei Perplexity (BrightEdge / TrySight) und die SOCi-Empfehlungsraten.
- Mittlere Konfidenz für die exakten Gewichtungen (Advice Local Studie basiert auf Experteneinschätzungen, nicht auf Reverse-Engineering der Modell-Internals). Die Modelle bleiben Blackboxes — Aussagen über die genaue mathematische Gewichtung bleiben Annäherungswerte.
- Datenlücke DACH-spezifisch: Fast alle quantitativen Studien basieren auf US-Daten. Wie stark deutsche Verzeichnisse (Das Örtliche, Gelbe Seiten, meinestadt.de, Provenexpert) im Vergleich zu US-Pendants in KI-Empfehlungen für deutsche Anfragen gewichtet werden, ist nicht belastbar quantifiziert. Die DAC Group hat 500 deutsche Unternehmen zur Datenkonsistenz erhoben (Ergebnis: 2 von 5 Sternen) — aber keine isolierte Plattform-Gewichtungsstudie für DACH.
Quellen
- BrightLocal — Uncovering ChatGPT Search Sources, 2026
- SOCi — Local Memo: Local Ranking Factors of 2026, 350.000 Standorte / 2.751 Marken
- Whitespark — 2026 Local Search Ranking Factors Report (47 Local-SEO-Experten, 187 Faktoren)
- Advice Local / Digital Applied — 2026 Local Search Ranking Factors on Maps, Organic & AI
- Google Search Central — AI Features and Your Website Documentation, 2026
- BrightEdge / TrySight — How Perplexity AI Selects Sources Algorithm Analysis, 2026
- Microsoft Learn — Microsoft 365 Copilot Search Documentation
- Anthropic — Claude API Web Search Tool Documentation (web_search_20260209)
- Search Engine Land — AI local visibility is up to 30x harder than ranking in Google: Report
- Forbes Business Council — The Reputation Divide In 2026
- DAC Group Germany — Studie zur lokalen Online-Daten-Hygiene (500 Unternehmen, 180.000 Filialen)
Wo werden Sie heute empfohlen — und wo nicht?
Wir prüfen Ihre Sichtbarkeit in ChatGPT, Gemini, Perplexity und in den relevanten Quellen-Plattformen. Branchenspezifisch, mit Aktionsplan, ab 99 € einmalig.
Pakete ansehen