Recap: Tech SEO Summit Hamburg 2024 – Ein Tag voller Nerd Tech SEO-Power
Selten gehen die meisten SEO-Konferenzen in die Tiefe und sind oft nicht auf einen bestimmten SEO-Teilbereich fokussiert. Die Tech SEO Summit am 17. September 2024 in Hamburg war eine der ersten Konferenzen in Deutschland, die sich rein auf technische Aspekte der Suchmaschinenoptimierung konzentrierte. Ausgerichtet wurde der Summit von Sören Bendig und Tobias Schwarz vom Crawling- und Website-Analysetool Audisto.
In einer familiären Atmosphäre mit gemütlichen Kinositzen in der Astor Film Lounge in der Hamburger HafenCity konnte ich das Wissen der Top-Speaker aufsaugen. Die Sessions waren lang genug, um inhaltlich in die Tiefe zu gehen. Mit dem reinen Tech-SEO-Fokus traf die Veranstaltung genau meinen Geschmack. Da es keine parallelen Vorträge gab, musste ich nichts verpassen. Die Pausen boten genügend Raum für einen tieferen Austausch. Es gab viele spannende Themen und großartige Tipps. Die Themenpalette war breit, dennoch bauten viele Beiträge aufeinander auf.
Harnessing the Google Algo Document Leak and Generative AI
Den Auftakt machte Mike King, CEO und Gründer der Agentur iPullRank. Er sprach über seine Erkenntnisse und Hintergründe zum Google-Algorithmus-Dokument-Leak und darüber, wie mit AI-Tools SEO-Analysen durchgeführt werden können, um seine Kunden auf das nächste Level zu heben. Er zeigte uns ein besseres Verständnis dafür, wie moderne Suchmaschinen funktionieren.
Mike demonstrierte, wie mithilfe von Embeddings über MixedBread und Cosine Similarity Berechnungen eigene Inhalte auf Ähnlichkeit und Zusammenhänge geprüft werden können. Er berechnete damit einen Themenfokus-Score: So lassen sich Abweichungen schnell erkennen und unpassende Inhalte können schneller identifiziert werden. Damit können weitere Analysen wie Relevanzbewertungen von Landingpages, Keyword-Mappings, Redirect-Mappings oder die Ermittlung interner Linkziele durchgeführt werden.
Es folgte eine Vorstellung weiterer Tools und AI-Anwendungen, die selbst lokal gehostet und für eigene Anwendungszwecke optimiert werden können. Als Beispiel präsentierte Mike eine Content-Creation-RAG-Pipeline.
Smart Segmentation: Prioritising SEO Tasks for Impact
Sabine Langmann zeigte in ihrem Vortrag, wie große Datenmengen intelligent segmentiert werden können. Sie stellte ihr Vorgehen mit dem Screaming Frog SEO Spider, einem JavaScript-Crawler und der Ermittlung von Vektor-Embeddings vor. Sie baute auf Mikes Vortrag auf und demonstrierte, wie automatisiert zusammengehörige Seiten und Templates ermittelt werden können. Die weitere Auswertung der Daten erfolgte in Python mit K-Means, Texteingaben für das Labeling und einer Ermittlung der Top-Keywords mittels TF-IDF-Analysen. Sabine verglich verschiedene Clustering-Algorithmen und stellte diese für unterschiedliche Anwendungsfälle vor.
The State of JavaScript Crawling
Tobias Schwarz präsentierte seine Tests zum JavaScript-Rendering und sprach darüber, was bei der Indexierung alles schiefgehen kann.
Seine wichtigsten Erkenntnisse betrafen die tatsächlich genutzten Auflösungen und die Pixeldichte des Google-Smartphone-Bots. Besonders interessant war der Hinweis zur Scrollhöhe und -breite: Der Googlecrawler nimmt, soweit möglich, die gesamte Scrollhöhe für den Snapshot und, wenn eine horizontale Scrollbar existiert, erweitert der Crawler die Breite auf das Vierfache. Somit kann der Smartphone-Bot auch reine Desktop-Seiten erfassen, ohne auf den alten Desktop-Crawler zurückgreifen zu müssen. Andere getestete Crawler rendern einen wesentlich kleineren Ausschnitt der Webseite.
Seine Tests und Tipps betrafen auch mögliche Fehlerquellen, die das Rendern verhindern könnten. Dazu gehören beispielsweise Sperrungen von wichtigen Inhalten über die robots.txt oder Verlinkungen, die ein Bot nicht erkennt. Tobias zeigte Beispiele, die verdeutlichten, dass es nicht immer einfach ist, zu erkennen, wann eine Seite tatsächlich vollständig geladen ist. Umso wichtiger ist ein geschicktes Cache-Management der genutzten Ressourcen, damit die Crawler diese effektiv nutzen und eine Webseite effizient crawlen und rendern können. Fehler im JavaScript können dazu führen, dass eine Seite nicht vollständig gerendert wird und deren Inhalte nicht in den Google-Index gelangen.
Website Infrastructure & SEO
René Dhemants Session zur Auswahl und Optimierung der Serverarchitektur war etwas weiter von meiner täglichen Arbeit entfernt, dennoch konnte ich ein paar Ideen mitnehmen, die insbesondere bei Ladezeitoptimierungen hilfreich sein können. Sein Playbook bot eine gute Grundlage und Bewertungsrichtlinien für die Auswahl der optimalen Hardware, Datenbanken und weiterer Infrastruktur. „Let Latency Guide You“ war oft das ausschlaggebende Kriterium. Da die meiste Software standardmäßig aus Kompatibilitätsgründen so eingerichtet ist, dass sie mit der Mindesthardware und -komponenten funktioniert, sollten die Einstellungen so weit optimiert werden, dass sie ideal und schnell im Setup laufen. Letztendlich zeigte er auch, wie ein optimales Caching-Setup aussehen kann.
Logfile Analysis – A Deep Dive into Your Data
Eyüp Alikilic von ATP Autoteile demonstrierte, wie Logfiles optimal ausgewertet, angereichert und mit anderen Datenquellen kombiniert werden können. Er stellte spannende Erkenntnisse vor und betonte die Bedeutung der richtigen Fragen und Herangehensweisen, um seine Business-Ziele zu erreichen. Logfiles sind in der Regel sehr groß und können sensible Daten enthalten. Deshalb mahnte er auch zu einem verantwortungsvollen Umgang sowie zum Löschen und Anonymisieren der Daten.
Unlocking SEO Potential by Understanding E‑commerce Site Search
Roxana Stingu von alamy konnte durch den Bau und die Optimierung interner Suchmaschinen viele Erkenntnisse, Fallstricke und Tipps für die Suche auf E-Commerce-Seiten weitergeben. Sie gab einen Überblick über verschiedene Suchalgorithmen und Konzepte. Sie stellte Studien und eigene Erkenntnisse vor, wie häufig die interne Suche bei Shopping-Seiten tatsächlich genutzt wird und wie diese Verkäufe steigern oder bei unoptimierten Suchergebnissen zu Kaufabbrüchen führen kann.
Da es unterschiedliche Nutzer und User-Journeys gibt, sollten alle wichtigen Aspekte bei der Optimierung der internen Suche berücksichtigt werden. Es geht nicht immer nur um die Darstellung der passenden Produkte – die Suche kann auch zur Navigation, als Hilfe oder zur Abfrage des aktuellen Lieferstatus genutzt werden. Hier spielt das Verständnis für die Art der Suchanfrage und den Kontext eine wichtige Rolle. Oft werden auch Abkürzungen, Slang, Symbole und alternative Schreibweisen genutzt, die berücksichtigt werden müssen.
Eine gute interne Suche sollte das Beste aus lexikonbasierter Suche und semantischem Verständnis vereinen. Dies ist nicht immer trivial. Zur besseren Bewertung stellte Roxana verschiedene Suchalgorithmen vor und erklärte, wie diese wann multimodal eingesetzt werden sollten. Es folgten Ansätze, wie bestehende Meta-Angaben zu Produkten mit KI angereichert und aufgewertet werden können. Letztendlich müssen die Suchergebnisse dann gefiltert, personalisiert und so ausgegeben werden (Re-Ranking), dass sie zu einer guten internen CTR führen. Die Nutzersignale können bei der internen Suche zu besseren Ergebnissen führen, wenn sie einbezogen werden.
Top Tech Tips Competition
Letztendlich konnten die Konferenzteilnehmer selbst Tipps vorstellen, die es in sich hatten. Hier ein Auszug aus ihren Beiträgen:
- Adrian Schmidt stellte vor, wie man Emojis in das SERP-Snippet integriert, die Google nicht unterdrückt oder löscht.
- Rodrigo Bertomeu Suárez erklärte, wie das Renderverhalten des GoogleBots über den Google Tag Manager überwacht werden kann, wenn keine Server-Logfiles verfügbar sind.
- Sebastian Adler zeigte, wie ein einfaches Q/A-Testing schnell mit Puppetry aufgesetzt werden kann.
- René Dhemant schilderte, wie in den Chrome DevTools mithilfe von eigenen JavaScript-Snippets SEO-Informationen, visuelle Darstellungen und vieles mehr angezeigt werden können – so kann auf fast jedes Browser-Plugin verzichtet werden.
- Johan von Hülsen gab nützliche Tipps zur Optimierung der internen Verlinkung aus seiner Erfahrung weiter: Bei großen Webseiten ist die Struktur wichtiger, bei kleineren eher der Anchortext. Weiterhin erwähnte er aus seiner Erfahrung, dass, wenn Google eine URL für einen gewissen Zeitraum nicht crawlt, dies ein Anzeichen dafür ist, dass diese bald im Bericht „Gecrawlt, nicht indexiert“ erscheinen wird. Diese Seiten sollten somit stärker intern verlinkt oder optimiert werden.
- Roxana Stigu veranschaulichte, wie groß tatsächlich schon der Google Lens Traffic sein kann. Weitere Tipps: Die Refinement-Links bei der Bildersuche zeigen gut, welche Unterthemen zu einem Hauptthema für Google relevant sind, die man somit in seiner Content-Planung aufnehmen sollte. Und: Für die Darstellung in der Google-Bildersuche ist das Seitenverhältnis zu anderen Bildern ihrer Erfahrung nach wichtig – hier sollte ein ähnliches Seitenverhältnis verwendet werden, damit ein Bild erscheint.
Tagesausklang auf einem historischen Museumsschiff
Der gemeinsame Ausklang mit Sektempfang, wunderbarem Ausblick und Buffet bot Gelegenheit zur Vertiefung der Themen und Kontakte auf dem historischen Museumsschiff Rickmer Rickmers aus dem Jahr 1896. Mit Blick auf den Hamburger Hafen und bei strahlendem Sonnenschein endete der großartige Tag.