SEOkomm 2025 Recap: Alles nur noch AI?

Die SEOkomm in Salzburg gehört zu den besten SEO-Konferenzen im deutschsprachigen Raum, und das aus gutem Grund. Hervorragende Organisation, erstklassige Verpflegung, fachlich anspruchsvolle Vorträge und großartige Networking-Möglichkeiten machen diese Veranstaltung zu einem jährlichen Pflichttermin der deutschsprachigen SEO-Szene. Am 28. November 2025 war es wieder soweit: Im Salzburg Congress im Herzen der Stadt traf sich die Community, um über die Zukunft unserer Branche zu diskutieren.

Die Stimmung: Aufbruch mit gemischten Gefühlen

Die Atmosphäre bei der diesjährigen SEOkomm war von einer besonderen Dynamik geprägt. Einerseits die Freude, bekannte Gesichter aus der Branche wiederzusehen, alte Arbeitskollegen, Partner, aktuelle und ehemalige Kunden. Andererseits machte sich eine gewisse Unsicherheit breit: Der rasante Wandel durch KI-Technologien stellt gewohnte Arbeitsabläufe infrage. Teilweise funktionieren etablierte Prozesse nicht mehr, und einige Kunden zeigen Zurückhaltung bei Investitionen.

Doch in jeder Herausforderung liegt auch eine Chance. SEOs werden zunehmend zur ersten Anlaufstelle für Fragen rund um KI-Suchen: Wie kommt man da rein? Welche Strategien funktionieren? Diese neue Rolle bietet spannende Möglichkeiten, auch wenn dafür ein paar alte Denkmuster über Bord geworfen werden müssen. Es gibt viel Neues zu lernen, und genau das macht diese Zeit auch wieder spannend.

Bastian Grimm: The Next Frontier of Discovery

Den Auftakt machte Bastian Grimm mit seiner Keynote, die eine Vision der Zukunft zeichnete, die weit über klassische Suchergebnisse hinausgeht. Wir bewegen uns von einfachen Suchanfragen hin zu „Antworten, Aktionen und Momenten“, dem sogenannten „Agentic Web”, in dem KI-Agenten selbstständig Handlungen wie Käufe oder Buchungen übernehmen.

Die Entwicklung ist schon interessant. Kurz nach der Konferenz kündigte Google mit „Disco“ einen experimentellen KI-Browser an, der Web-Inhalte automatisch bündelt, ein weiterer Beleg für Bastians These. Es scheint immer mehr wegzugehen von den klassischen Webseiten hin zu verteilten Ausgabekanälen. Dennoch bleibt die Website nach wie vor der zentrale Anlaufpunkt, um Inhalte zu verbreiten und die Marke bekannt zu machen. Die Aufbereitung und Bereitstellung der Inhalte bleibt somit erhalten. Über die Ausgabe entscheiden jedoch nicht mehr vorrangig klassische Suchmaschinen.

Besonders eindrucksvoll war Bastians Konzept des „Trust Stack”. Authentische Inhalte heben sich vom KI-Einheitsbrei ab. Die E-E-A-T-Faktoren werden wichtiger. Glaubwürdigkeit und Vertrauen zu schaffen sollten zentrale Aufgaben werden, gerade wenn künstliche und echte Interaktionen miteinander verschwimmen.

Bastians Vision des “Agentic Web” hat meine Sicht auf die Zukunft von SEO definitiv verändert. Ja, es ist eine Zeit, in der wir uns neu ausrichten müssen. Automatisierungen, gestiegene Erwartungen und mehr Preiskämpfe verändern die Rahmenbedingungen. SEO-Agenturen und ihre Kunden müssen über mehrere Ökosysteme sichtbarer werden, nicht nur über einen Kanal. Zumindest müssen wir flexibler werden und uns mehr auf die tatsächliche Wirkung der Maßnahmen konzentrieren. Leider ist die Erfolgsmessung dadurch komplizierter geworden. Aber es ist eine spannende Zeit, die wir aktiv mitgestalten können.

Bezüglich des “Trust Stack” (Beweise, Experten, Reputation) sehe ich für meine Projekte vor allem die Authentizität als dringendste Aufgabe: Authentische Inhalte heben sich vom KI-Einheitsbrei ab, und genau hier liegt die größte Chance.

David Konitzny: KI-Automatisierung im SEO & Content-Marketing

David zeigte eindrucksvoll, wie repetitive SEO-Aufgaben durch echte Automatisierung mit Tools wie n8n oder Make.com gelöst werden können, statt manueller Bedienung von Chat-Interfaces. Seine Workflows verbinden Datenquellen wie DataForSEO mit Large Language Models, um skalierbare Prozesse für Themenrecherche, Briefings und Content-Erstellung aufzubauen. Der Mensch bleibt dabei als Qualitätsinstanz (“Human in the Loop”) essenziell.

Besonders hilfreich waren seine Checklisten, wann, was und wie etwas automatisiert werden kann. Interessant: Verschiedene Speaker hatten unterschiedliche Meinungen. Während David Keyword-Recherchen als gut automatisierbar und Texterstellung eher als schwierig einstufte, gingen andere Vortragende genau den umgekehrten Weg. Ich denke, es kommt auf das Thema und eine gute Planung bzw. ein gutes Briefing an, sowie auf die Menge an vorhandenem Material wie Tone-of-Voice-Vorgaben einer Marke oder bestehende Inhalte.

Beim Vergleich “KI-Chat-Oberfläche vs. echte API-Automatisierung” fühlte ich mich durchaus etwas ertappt. Im Agenturalltag gibt es ständig neue Kunden mit immer neuen, mehr oder weniger komplexen Themen. Oft lohnt eine Automatisierung eher wenig. Aber ja, häufig verwenden wir bei ähnlichen Aufgaben „schnell“ einmal einen KI-Chat, obwohl eine Teilautomatisierung oder ein eigener trainierter Chat bzw. Ablauf bei wiederkehrenden ähnlichen Aufgaben am Ende mehr Zeit sparen könnte. Ein wichtiger Impuls zur Selbstreflexion.

Im Prinzip verwenden wir schon für sehr viele Aufgaben DataForSEO-API-Abfragen. Oft fehlt noch die Kombination verschiedener Tools. Spannend fand ich die Nutzung von Airtable als Oberfläche und nicht nur als Datenbank. So etwas fehlt mir, das nehme ich mir vor zu testen. David verwendet für viele Schritte Make.com. Ich habe mehr n8n im Einsatz, mir scheint jedoch, dass man mit Make.com für viele Sachen schneller zum Ergebnis kommt durch eine einfachere Bedienbarkeit.

Christiane Kunisch: Browser-Based SEO, die besten Chrome DevTools Hacks

Chrissy demonstrierte eindrucksvoll, dass man für technisches SEO oft keine teuren Tools braucht. Die Chrome DevTools sind extrem mächtig, wenn man sie richtig einsetzt: DOM-Manipulation, JavaScript-Fehleranalyse in der Console, Netzwerkanfragen untersuchen (z. B. PageSpeed-Bremsen identifizieren) und mittels kleiner Skripte Daten wie alle Links einer Seite direkt extrahieren.

Ich benutze bereits regelmäßig die DevTools für Detailanalysen, allerdings sehr selten Console-Skripte. Das habe ich auch gleich noch getestet. Dies kann sehr nützlich sein, um einmalig etwas zu extrahieren. Für seitenweite Erkenntnisse verwende ich dann doch eher den Screaming Frog mit hinterlegten Scripts. Ich verwende ebenfalls die DevTools, um zu erkennen, ob Elemente im Quellcode direkt geladen werden (z. B. aufklappbare Texte) und auch zur visuellen Anpassung, wie etwas aussehen könnte, für Vorschläge. Ich nutze auch immer die DevTools, um CSS-Selektoren und XPaths für Crawls zu ermitteln.

Besonders wertvoll finde ich den Ansatz, SEO-Probleme direkt “an der Quelle” im Browser zu debuggen, statt nur auf Crawl-Berichte zu vertrauen. Die Crawler und Tools kennen die speziellen Gegebenheiten der jeweiligen Seite nicht. Ich nutze dies immer, um die Aussagen der Tools zu verifizieren. Für PageSpeed-Themen verbringe ich den Großteil der Analyse in der Console, da dort echt nützliche Funktionen und Tools vorhanden sind und einen meistens weiter bringen als externe Tools.

Von den gezeigten „Hacks“ waren für mich vor allem die Console-Skripte neu und direkt praktisch anwendbar. Mein Vorsatz: Unbedingt möchte ich weitere Console-Scripte und vor allem den MCP (Model Context Protocol) der DevTools testen und schauen, ob damit Testings schneller umsetzbar sind.

Kevin Indig: Wie AI-getriebene Suchergebnisse den SEO-Standard verschieben

Kevins „State of AI Search 2025“ war einer der Höhepunkte der Konferenz. Ich war beeindruckt, wie Kevin seine Studien durchführt, aufbaut und präsentiert. Seine Erkenntnisse helfen, den tatsächlichen aktuellen Stand und die Nutzung besser zu verstehen und eigene Maßnahmen dahingehend eher zu priorisieren.

Er führte durch das Jahr 2025, in dem es recht große Änderungen der Suche gab: Angefangen von ChatGPT mit Websuch-Möglichkeiten, Googles Einführung der AI Overviews und später den AI Mode, den Auswirkungen des Abschaltens von Googles num=100-Parameters in der Suche bis hin zur Einführung KI-basierter Browser.

Seine zentrale These: Klicks als primäre KPI sterben aus, da Nutzer Antworten direkt in AI Overviews konsumieren und nur noch validieren. Stattdessen wird der „Visibility Layer“ wichtig, Sichtbarkeit ohne Klick. Marken-Erwähnungen (Mentions) auf Drittseiten, Aktualität (Freshness) und Plattformen wie Reddit oder YouTube werden entscheidend, um in LLM-Antworten aufzutauchen.

Zur These, dass wir „Share of Voice“ und „Einfluss“ statt Traffic messen müssen: Naja, wenn Antworten nicht mehr geklickt werden, müssen wir wenigstens die Impressionen der Antwort und die Vorkommen unserer Kunden beziehungsweise unseren eigenen Domains messen, um dafür optimieren zu können. Am Ende kommt es darauf an, was die jeweilige Zielsetzung ist, wie Markenbekanntheit steigern und/oder Leads/Umsatz generieren. Die Schwierigkeit bei allen KI-Messungen ist, dass sie nur einen Ausschnitt und eine Momentaufnahme zeigen. Da LLMs generativ sind, kann jede gleiche Anfrage immer unterschiedliche Antworten generieren, selbst bei gleichem Kontext. Da je nach Verlauf, Umgebungsvariablen, Standort, Historie und anderem Kontext auch immer unterschiedlich sein können, ist jede versuchte Messung eher ein Raten und das Aufzeigen einer Tendenz statt einer tatsächlichen Messung.

Mich hat die Statistik eher nicht überrascht, dass Nutzer Links in AI-Antworten kaum klicken, sondern die Antwort nur validieren: Ich klicke ja auch sehr selten. Jedoch, dass es nahezu keine ausgehenden Klicks im Google AI Mode durchgeführt worden sind, ist eher erschreckend. Auf der anderen Seite nutzt der normale Suchende jedoch eher selten den AI-Modus, zumindest noch.

Bezüglich der Strategie („Inverse Content Strategy“ oder Fokus auf Reddit/Foren): Auch wenn allgemein viele Foren wie Reddit häufig genutzt werden, muss je Kunde dennoch geschaut werden, ob für die jeweilige Nische vielleicht andere Seiten, die durch KI-Systeme zitiert werden, vielleicht wichtiger sind.

Die wichtigste Erkenntnis: Nutzer validieren KI-Antworten, und der Vertrauensaufbau ist wichtig. Hier gilt es also, die Sichtbarkeit zu steigern, auch durch eigene oder neue Sichtweisen. Dafür muss auch der Content immer aktuell gehalten werden.

Johan von Hülsen: Qualität ist King. Was der Google-Leak über Content-Bewertung verrät

Johan analysierte den massiven Google-API-Leak und den DOJ-Prozess, um zu zeigen, dass Google Content nicht einzeln, sondern in Gruppen („NSR-Groups“) bewertet. Er erklärte Konzepte wie „Goldmine“ (Annotation Engine), „Q*“ (Qualitäts-Algorithmus) und dass Klickdaten bzw. User-Signale sowie echte Autorenschaft massive Rankingfaktoren sind. Zudem zeigte er, dass Google wahrscheinlich Anchortexte und die interne Verlinkung etwas anders bewertet, als von vielen SEOs angenommen.

Das Wissen über „NSR-Groups“ (dass schlechte Seiten die guten runterziehen können) verändert meine Content-Pruning-Strategie grundlegend: Für mich heißt dies in der Praxis, dass ich noch weniger einzelne URLs betrachten sollte, sondern schauen, dass alle Themen in einem Bereich (URL-Gruppen) wirklich „holistisch“ abgedeckt werden. Ausreißer, die nicht zum Themenkomplex passen, sollten noch stärker beschnitten werden, denn sie könnten die Gesamtqualität negativ beeinträchtigen. Entitäten-Analysen und semantische Nähe sollten daher eher zum Standard der Content-Bewertung sein.

Meine wichtigste Erkenntnis aus den Details zum Google-Leak: Dass Google möglicherweise nur die ersten 200 Anchortexte bewertet, ist sehr interessant. Hier müssen vor allem Navigations-Verlinkungen bewertet werden, ob diese wirklich dem Ziel-Keyword einer Seite passen. Hier spielen vor allem Ansätze zum Siloing etc. eine wichtige Rolle. Interessant war auch der mögliche Ansatz, dass die Position des Links eher nicht so ausschlaggebend zu sein scheint, sondern eher die von ihm eingenommene Fläche, wie durch große Banner-Verlinkungen.

Ich fand die Betonung von Johan, dass immer alles selbst getestet und geprüft werden sollte, super. Früher habe ich auch fast immer alles durch eigene Experimente an eigenen Projekten getestet. Dies habe ich zuletzt eher vernachlässigt, möchte das aber wieder stärker in den Fokus rücken.

Olaf Pleines: Embeddings für Wettbewerbs- und Content-Gap-Analysen verwenden

Olaf ging tief in die Technik und zeigte, wie man Text-Embeddings (Vektoren) nutzt, um die semantische Bedeutung von Inhalten mathematisch vergleichbar zu machen. Er demonstrierte, wie man mittels Cosine-Similarity echte inhaltliche Lücken zum Wettbewerb findet, Boilerplate-Content bereinigt und Cluster visualisiert, um Strukturen zu erkennen, die Keywords allein nicht zeigen.

Olaf gab einen verständlichen Überblick, wie Text-Embeddings zu verstehen sind, wie die Ergebnisse zu interpretieren sind und welche unterschiedlichen Möglichkeiten, Modelle und Ansätze es gibt. Wenig beachtet werden oft Token-Limits über API-Abfragen. Für eine Keyword-Analyse ist dies kein Ersatz, kann jedoch helfen, um Content-Lücken aufzudecken.

Der Einstieg in Vektoren und Embeddings war für mich verständlich, und ich sehe den Vorteil gegenüber klassischer Keyword-Analyse: Ich habe viel über die besonderen Eigenschaften gelernt. Nun weiß ich, dass eine Betrachtung auf reiner Dokument-Ebene nicht unbedingt nützlich ist. Mitgenommen habe ich auch, dass es Sinn ergeben kann, die einzelnen Absätze innerhalb eines Dokuments auszuwerten, um zu schauen, wie nah sie am eigentlichen Thema sind.

Den Ansatz, Content-Gaps mathematisch über Vektorräume zu berechnen, finde ich für meine tägliche Arbeit durchaus praktikabel, allerdings mit Einschränkungen: Die Datenbeschaffung ist nicht so trivial, da es oft unterschiedliche Aufbaus des Boilerplates gibt, oft viel Marketing-Bloat in Texten zu finden ist oder oft rechtliche Texte (Kleingedrucktes) oder Teaser/Banner etc. zuerst bereinigt werden müssen. Zudem ist rein aus einem Inhalt nicht erkennbar, wie dieser priorisiert wurde, wie am Anfang oder als letzter Absatz. Daher sollten spätere Vergleiche nicht unbedingt auf Ebene eines Gesamtdokuments durchgeführt werden, sondern möglicherweise auch auf Abschnitts- oder Satzebene.

Networking und Abendveranstaltungen

Die OMX Networking Party im Kavalierhaus bot einen gelungenen Start in die Konferenztage. Die Location etwas außerhalb des Stadtzentrums war einfach super und perfekt für entspannte Gespräche.

Den Ausklang bildete die SEOkomm Networking Party im Urbankeller, eine fantastische Location in einem alten Gebäude mit besonderem Charme. Kevin Indig legte als DJ auf, und Björn Darko präsentierte wieder seinen berühmten Rap. Leider verteilten sich die Gäste durch die vielen verschiedenen Räume etwas, was die Kontaktpflege nicht ganz so einfach machte wie erhofft.

Fazit: Eine Zeit des Umbruchs und der Chancen

Die SEOkomm 2025 hat deutlich gemacht: Wir stehen vor einem fundamentalen Wandel unserer Branche. KI-getriebene Suche, automatisierte Workflows und neue Metriken erfordern ein Umdenken. Gleichzeitig eröffnen sich neue Chancen für alle, die bereit sind, alte Denkmuster zu hinterfragen und zu lernen.

Die wichtigsten Erkenntnisse im Überblick:

  • Sichtbarkeit wird wichtiger als Klicks. Wir müssen über mehrere Ökosysteme präsent sein, nicht nur über einen Kanal. Die Website bleibt der zentrale Hub, aber die Ausgabekanäle diversifizieren sich.
  • Vertrauen und Authentizität sind die neuen Währungen. Im Zeitalter von KI-generierten Inhalten heben sich authentische Inhalte vom Einheitsbrei ab. E-E-A-T gewinnt massiv an Bedeutung.
  • Automatisierung ist kein Luxus mehr, sondern notwendig für effizientes Arbeiten. Echte API-Automatisierung statt manueller Chat-Bedienung spart langfristig Zeit.
  • Content-Qualität muss holistisch betrachtet werden. Nicht einzelne URLs, sondern URL-Gruppen und Themenkomplexe sind die relevante Bewertungsebene. Ausreißer können die Gesamtqualität negativ beeinflussen.
  • Technisches Debugging direkt im Browser spart Zeit und liefert präzisere Erkenntnisse als Tools allein. Die Chrome DevTools sind mächtiger, als viele denken.
  • Embeddings und semantische Analysen ergänzen klassische Keyword-Recherchen sinnvoll und helfen, Content-Lücken aufzudecken, die sonst verborgen bleiben.
  • Testing und Experimente bleiben essenziell. Was für andere funktioniert, muss nicht für jedes Projekt gelten. Eigene Tests an eigenen Projekten bringen die wertvollsten Erkenntnisse.

Die SEOkomm bleibt ihrem Ruf als Konferenz mit „Herzblutgarantie“ treu. Die Organisation war wie immer tadellos, das Essen ausgezeichnet, Kaffee und Kuchen reichlich vorhanden, Ausschilderungen und Check-in funktionierten reibungslos, und die fachliche Tiefe der Vorträge sucht ihresgleichen.

Es ist eine spannende Zeit für SEO, und wir können diese Zukunft aktiv mitgestalten. Wir freuen uns schon auf die SEOkomm 2026!

Schreibe einen Kommentar