SMX Recap – was war los?

SMX live
© SMX

Am 16. und 17. März 2022 war es wieder soweit: In der zum 3. Mal virtuell stattfindenden SMX drehte sich zwei Tage lang alles um SEO, SEA, Analytics und Website-Usability. Im Vergleich zu den Vorjahren war bei den Teilnehmerzahlen ein leichter Rückgang zu bemerken. Mangels beschränkter Networking-Möglichkeiten stellt sich bei manchen wohl eine virtuelle Ermüdung ein. Ich aber habe die wie immer hervorragenden Vorträge und Speaker genossen: Meine Highlight-Sessions bei der SMX:

Suchplattformen: Mehr als nur Google

Die einleitende Keynote der diesjährigen SMX wurde von Philipp Klöckner gehalten, der durch seinen Doppelgänger-Podcast mittlerweile auch einem breiteren Publikum außerhalb der Online-Marketing-Welt bekannt ist. Unter dem Thema „The Unbundling of Search“ stellte er vor, auf welchen Suchplattformen die Suche abseits von Google stattfindet. Unternehmen wie Amazon (Shopping), Expedia (Hotels) oder Airbnb (Urlaubsunterkünfte) beweisen erfolgreiche Geschäftsmodelle für die Suche nach bestimmten Themen und Branchen, die sich neben der Standardsuche über Google etabliert haben. Plattformen, die ein Thema besetzen können und eine gute Usability bieten sind die Gewinner dieser Suche. Ein steigender Anteil der transaktionalen Suchanfragen, die zu den profitabelsten Suchanfragen gehören, wird nicht mehr direkt auf Google gestartet. Google versucht die Nutzer durch seine Plattform-Ökonomie, die vom Chrome-Browser über den Maps-Kartendienst bis zum Android-Betriebssystem reicht, weiterhin in seinem Suchuniversum zu halten. Doch weitere zukünftige Konkurrenten im Suchmarkt, wie Apple mit Plänen zu einer eigenen Suchmaschine, führen zu einem härter werdenden Wettbewerb um die Marktführerschaft. Der demografische Wandel mit verändertem Kaufverhalten der Generation Z, die verstärkt durch Social Media beeinflusst wird, erhöht zusätzlich den Wettbewerb um die Nutzer.

Indexierung verstehen

Indexierung SEO

© SMX

Bartosz Góralewicz, Geschäftsführer der polnischen SEO-Agentur Onely, ging in seiner „The ultimate Google Indexing Session“ technisch auf das Thema Indexierung von Inhalten bei Suchmaschinen ein. Im Rahmen einer Analyse untersuchte er, wie viele Seiten von DACH-Domains wirklich durch Google und Bing in den jeweiligen Suchindex aufgenommen wurden. Zur Überraschung vieler SMX-Teilnehmer indexiert Bing nachweislich mehr Seiteninhalte als Google. Im Gegensatz zu Bing legt Google aber deutlich mehr Wert auf die Qualität der indexierten Inhalte. Generell hat die Größe des gesamten Google-Indexes abgenommen, es ist also schwieriger geworden, Inhalte von Websites im Index zu positionieren. Daher ist nicht ausreichend, guten Content anzubieten, sondern es sollte auch gewährleistet werden, dass diese Inhalte technisch gut gelöst sind, um indexiert zu werden. Hilfreich zur Analyse des Status der indexierten Seiten im Vergleich zu den nicht indexierten Seiten sind die Google Search Console und die Bing Webmaster Tools.

Gutes SEO benötigt Schnelligkeit

3 SEO Probleme

© SMX

Kevin Indig, SEO Director bei Shopify, stellte in seiner Session „3 SEO problems nobody talks about“ klar: Im SEO gibt es seit einigen Jahren keine geheimen Hintertüren mehr, um einen Ranking-Erfolg zu erreichen. SEO besteht zu 50 % aus Basisoptimierungen, die zur Zielerreichung notwendig sind. 40 % der SEO-Arbeit ist Monitoring und Tracking. Da mittlerweile die meisten Websites, die in den Top-10-Rankings gelistet werden, optimiert sind, geht es darum die letzten 5 % an Optimierungsmaßnahmen umzusetzen, um vor dem Wettbewerber zu stehen. Alte Arbeitsweisen im SEO, die auf Rollout-Zyklen von 6 Monaten nach Durchführung eines technischen Audits setzen, sind nicht mehr zeitgemäß und zu langsam. SEOs müssen zunächst entdecken, dass sie mittlerweile Produktmanager sind und die gleichen Ziele verfolgen. Als Vorgehensweise empfiehlt Kevin Indig Maßnahmen auf der Basis von Annahmen schnell abzuleiten, diese umsetzen zu lassen und im Nachgang die Auswirkungen zu testen. Dieser Prozess sollte fortlaufend wiederholt werden. Da die Google Search Console Daten unzureichend sind, ist eine Erweiterung der Datenbasis mit Tools von Drittanbietern sinnvoll, um im Ranking-Monitoring auf der sicheren Seite zu sein. Abzuraten ist, sich rein auf das von Google bereitgestellte Suchvolumen zu verlassen, um gute Keywords zu finden. Tools wie z.B. Pinterest Trends liefern hier qualitative Daten zur Ermittlung von relevanten Suchtrends.

Wieviel Content braucht ein Shop?

Der Frage, ob Blogs oder Ratgeber im Rahmen eines Shops überhaupt positiv zu Traffic und Umsatz beitragen, stellte sich Markus Hövener in seiner Session „Content für Shops: Welche Inhalte wirklich SEO-Ergebnisse bringen!“ Hierzu wertete er die Blogs deutscher Websites hinsichtlich der Performance der Inhalte und der erreichten Backlinks aus. Erkennbar war, dass ein Top-10-Ranking und eine damit verbundene Umsatzsteigerung nur dann erreicht wurde, wenn direkt Fragen beantwortet wurden, deren Lösung mit einem Produkt des Shops verbunden war. Ziellose Artikelbeiträge im Blog nach dem Motto „Content is king“ führen zu keiner Performance-Verbesserung. Auch das Erreichen von Backlinks ohne aktives Seeding ist mit Blogbeiträgen nicht einfach möglich. Einzig bei veröffentlichten Studien zeigte sich, dass Backlinks über Presse- und Newsportale entstanden. Die meisten Blogbeiträge haben keine Backlinks. Wenn Backlinks das Ziel mit Blogbeiträgen oder Ratgeber-Seiten sind, muss ein Budget für das Seeding eingeplant werden.

Texte automatisiert erstellen

KI im Einsatz

© SMX

Wie Texte mit Hilfe künstlicher Intelligenz geschrieben werden können, stellte Kai Spriestersbach in seiner Session „KI im Einsatz“ vor. Allgemein ist bei der automatisierten Texterstellung zu unterscheiden nach regelbasierter Textgenerierung und vortrainierten Sprachmodellen. Die regelbasierte Textgenerierung ist bereits seit über 10 Jahren im Einsatz. Als Beispiel wäre die lokale Sportberichterstattung zu nennen, wo z. B. für Kreisligafußballspiele Texte automatisiert mittels Textspinning erstellt werden.  Bei den vortrainierten Sprachmodellen sticht GPT3 hervor. Hier werden neuronale Netze auf Basis großer Textmengen „trainiert“, wobei die Texte tokenweise zerlegt werden. Beispiele für vortrainierte Sprachmodelle wären KI-Tools wie OpenAi, Jasper oder Frase. Gemäß Kai Spriestersbach eignen sich diese KI-Tools gut zur Zusammenfassung vorhandener Inhalte, für Anzeigentexte oder auch für   automatisierte Antworten auf Bewertungen. Man sollte sich jedoch bewusst machen, dass die jeweilige KI in der Texterstellung nur so gut ist wie die Trainingsdaten. GPT3 ist ein Papagei: Es können keine Antworten zu Inhalten geschrieben werden, die nicht in den Trainingsdaten enthalten sind. Die KI braucht einen Kontext, um gute Ergebnisse liefern zu können. Ein Fallstrick ergibt sich bei mittels GPT3 erstellten Texten auch rein rechtlich: Über KI erstellte Texte sind nicht geschützt, d. h. theoretisch von jedem kopierbar.

22.03.2022

von Daniel Reif

Zurück zur Übersicht
Top