Besonders lesenwert für
Aldi Deutschland sorgt für Schlagzeilen: Auf Prospekten werden KI-generierte Bilder neuerdings markiert – proaktiv und vor Inkrafttreten vieler Gesetze.
Hintergrund ist der EU AI Act, der seit August 2025 teilweise gilt und u. a. vorschreibt, dass KI-Inhalte klar gekennzeichnet werden müssen.
Reaktionen der Kunden:
Manche begrüssen die Transparenz.
Andere sind irritiert und fragen, warum keine „echten Fotos“ gemacht werden – obwohl diese oft ebenfalls inszeniert und bearbeitet sind.
Best Practice-Empfehlung für Unternehmen:
Klare Kennzeichnung von KI-Bildern.
Authentizität sicherstellen Bilder müssen den Markenauftritt widerspiegeln.
Mitarbeiterschulung zu genutzten KI-Tools und Prozessen.
In der Schweiz wird eine ähnliche Gesetzgebung erst um 2027 erwartet, vermutlich in abgeschwächter Form.
Fazit:
Die proaktive Kennzeichnung schafft Transparenz und stärkt das Vertrauen, auch ohne gesetzliche Pflicht. Unternehmen, die jetzt handeln, sind 2027 nicht nur vorbereitet, sondern wirken glaubwürdig.
Eine Analyse von Mak Rak zeigt: KI-gestützte Systeme greifen bevorzugt auf journalistisch aufbereitete Inhalte aus vertrauenswürdigen Quellen zurück.
Sponsored Content – also bezahlte Beiträge, die wie redaktionelle Artikel wirken – wird meist herausgefiltert.
Konsequenz für Marketing & PR:
Mehr Fokus auf PR-Content und Earned Media statt eingekauften Beiträgen.
Auf der eigenen Website nützlichen, hochwertigen Content bieten, der langfristig relevant bleibt.
Fazit:
Wer in der KI-gestützten Suche sichtbar bleiben will, muss auf echte Medienberichterstattung und qualitativen Content setzen. Gekaufte Artikel verlieren strategisch an Wert.
Die Google Konferenz brachte neue Einblicke in AI-Mode, AI-Overviews und den klassischen SEO Ansatz.
Kernaussage: Für die Google Suche bleibt klassisches SEO entscheidend – keine komplett neuen Disziplinen
Crawl Budget: Je schneller und fehlerfreier die Website, desto mehr Seiten werden indexiert.
robots.txt und XML Sitemap geben den Crawlern Orientierung.
Interne Verlinkung bleibt wichtig für die Struktur.
404 Fehler beeinflussen laut Google das Crawl-Budget nicht in der Praxis kann es aber dennoch Auswirkungen geben.
Relevanter Content ist entscheidend schwache Inhalte landen nicht im Index.
Soft 404: Seiten mit wenig oder keinem Mehrwert.
Duplicate Content mit Canonical Tags und Hreflang sauber steuern.
JavaScript Inhalte am besten direkt im HTML platzieren, um Interpretationsfehler zu vermeiden.
Nutzerorientierung: Inhalte müssen echte Probleme lösen.
Kontext: Besonders bei Nischen-Keywords Details und Erklärungen hinzufügen.
Technische Qualität und Mobile Performance sind Grundvoraussetzungen.
Search Console entwickelt sich zu einem Tool mit konkreten Handlungsempfehlungen.
Klassisches SEO bleibt die Grundlage: sauberes Crawling, verlässliche Indexierung und nutzerorientiertes Ranking. Wer Performance, interne Verlinkung und JS‑Rendering im Griff hat und kontextstarken Content liefert, bleibt sichtbar – auch neben AI‑Overviews.
Das Open Graph XYZ Tool prüft, wie OG-Tags (Titel, Beschreibung, Bild) für soziale Medien wie LinkedIn, Facebook oder X dargestellt werden.
Besonders nützlich, um Cache-Probleme auf LinkedIn zu beheben – mit dem Post Inspector lässt sich die Vorschau sofort aktualisieren.
Mit Open Graph XYZ lässt sich ganz einfach prüfen, welcher Titel, welche Beschreibung und welches Bild aktuell hinterlegt sind – und wie das Posting dann auf den verschiedenen Plattformen aussieht.
Einfach die URL ins Tool einfügen, prüfen und bei Bedarf anpassen, bevor man den Link teilt.
Mit einem sauberen Open Graph Setup vermeidest du peinliche Vorschaubilder, stellst deine Inhalte optimal dar und sorgst dafür, dass dein Content in den sozialen Medien genau so erscheint, wie du es geplant hast.
News 1: LinkedIn Post Sergej Plovs
News 2: LinkedIn Post Carly Martinetti
News 2: Muck Rack Report: What is AI reading
Hauptthema: Link zum SEO Artikel auf zweiblog.com
Hauptthema: Google Rater Quality Guidelines
Tool: opengraph.xyz
Tool: LinkedIn Post Inspector
Dani: Und schon ist es wieder soweit. Wir begrüssen euch herzlich zur Nummer 9 unseres Zweiblogs. Wir sind schon bei der 9. Folge angelangt. Nächstes Mal müssen wir ein Kerzchen mitnehmen resp. 10. Warst du schon beim Coiffeur, Erich?
Erich: Nein, noch nicht. Leider erst übermorgen.
Dani: Also dann bei Folge 10, Erich mit schöner Frisur. So, aber lass uns nicht über die Haare, sondern über den heutigen Tag reden. Wir haben wieder zwei tolle News und steigen gerade mit der ersten News ein. Heute reden wir nämlich über KI-Bilder, die neuerdings markiert werden. Aldi in Deutschland hat kürzlich für Aufsehen gesorgt, indem sie auf ihren Prospekten neuerdings die Bilder mit KI-generierten Markierungen versehen. Was heisst das, Erich?
Erich: Die Transparenz ist etwas neu in der Branche. Man war überrascht, dass Aldi damit vorwegprescht und die Bilder so kennzeichnet.
Dani: Das ist sehr interessant, aber warum macht Aldi das? Was steckt dahinter?
Erich: In der EU gibt es den «EU AI Act»… das ist jetzt wieder ein Zungenbrecher… Dieser ist seit August 2025 zum Teil schon operativ und fordert unter anderem, dass KI-Inhalte klar gekennzeichnet werden müssen. Aldi geht jetzt voraus und hat das proaktiv schon in ihrem Prospekt gemacht.
Dani: Wie kommt das bei den Kunden an? Ich blättere den Prospekt von Aldi durch und überall steht, dass das Menü durch KI generiert wurde. Ist das denn nicht das, was ich kaufe?
Erich: Es ist nicht überall. Ich habe es angeschaut. Bei Aldi Schweiz sieht man z.B. gar nichts davon. Ich weiss auch nicht, ob sie die gleichen Bilder verwenden. In Deutschland musste ich auch den Prospekt gut durchschauen. Bei ein paar Bildern war es gekennzeichnet. Es ist nicht der ganze Prospekt voll mit KI-Bildern.
Aber die Kunden haben verschieden reagiert. Die einen finden es sehr gut, dass man die KI-generierten Bilder auszeichnet und dass man sie sofort erkennt. Und andere Kunden waren komplett irritiert und haben dann gefragt: «Warum muss man KI generieren? Kann man da nicht richtige Fotos machen?» Wobei richtige Fotos, es gibt ja hunderte von YouTubevideos usw., die zeigen, wie man Lebensmittel schön fotografiert, mit Leim und Schwämmen und allem Möglichen, was man noch darüber sprayt. Und dann hat man noch Photoshop… Das waren schon lange keine richtigen Produktfotos mehr.
Dani: Was mich natürlich interessiert: Ist für die Schweiz auch so eine Kennzeichnungspflicht vorhanden?
Erich: In der Schweiz machen wir das wie immer: Wir schauen zuerst und dann machen wir irgendwann etwas. Das ist auch schon im Tun für Unternehmen, die in Deutschland unterwegs sind. Die müssen sich daran halten. Die Firmen, die in Deutschland verkaufen oder aktiv sind im Markt. In der Schweiz geht das Gesetz jetzt langsam an. So wie man das abschätzt in der Schweiz gehen wir davon aus, dass wir im Jahr 2027 eine ähnliche Gesetzgebung haben werden, wie die in der EU. Wahrscheinlich auch wieder ein bisschen abgeschwächt, aber in einer ähnlichen Richtung.
Dani: Für eine Webseite nur in der Schweiz habe ich noch keine Kennzeichnungspflicht bis 2027 gesehen. Jetzt ist die Frage, was ist Best Practice für ein Unternehmen? Wir haben schon gegen Ende 2025. Was würdest du sagen, was ist Best Practice für ein Unternehmen? Wie sollen sie mit KI-generierten Bilder heute schon umgehen?
Erich: Ich persönlich würde das klar auszeichnen, dass die Bilder so wie es Aldi macht als KI-generierte Bilder gekennzeichnet sind. Es ist sicher wichtig, dass man als Firma authentisch ist, dass die Bilder nicht eine Fantasiewelt darstellen, sondern die Marke, den Brand widerspiegeln.
Und das dritte ist, dass man die Mitarbeiter bezüglich diesem Thema schult und sie über die KI-Tools, die im Einsatz sind, Bescheid wissen und das sauber und transparent macht.
Dani: Spannend! Kommen wir bereits zu der News Nummer 2: KI ignoriert «Sponsored Content». Was heisst das? Wir haben hier eine spannende Geschichte. Mak Rak hat eine spannende Analyse gemacht. Um was geht es in dieser Analyse?
Erich: Sie haben in KI-Abfragen gestellt und analysiert, aus welchem Content und aus welcher Quelle die KI diese Antworten generiert hat. Bei den Zitier Gewohnheiten der KI-Systeme haben sie gesehen, dass vor allem Beiträge genommen wurden, die echt journalistisch aufgearbeitet wurden, von wirklich verifizierten Quellen, die Relevanz haben. Und alles, was Sponsored Content war, was ich eingekauft habe, was aussieht wie ein Newsbeitrag, das ich aber als Firma effektiv gekauft habe, die sind herausgefiltert worden.
Es gab wirklich nur einen kleinen Bruchteil davon, bei diesen Quellen nachher verwendet worden sind.
Dani: Jetzt kann man natürlich sagen, das Unternehmen, das einen Sponsored Content einkauft, sei es bei Blick oder wo auch immer, wird über diese News auf seiner Seite berichten. Darum ist es richtig, dass diese Relevanz in einem Newsportal gefiltert wird. Das ist ein Gamechanger für PR und das Marketing, dass man sich bewusst ist, dass das nicht relevant sein wird, wenn man möglichst viele Berichte einkauft und dadurch die Relevanz erhöht. Was haben sie denn im Detail herausgefunden? Gibt es dort noch weitere Informationen in dieser Studie? Oder ist das schon so die Zusammenfassung?
Erich: Zusammengefasst kann man sagen: Alles was wirklich echt Earned Media ist, was journalistisch aufbereitet ist und von einer vertrauenswürdigen Quelle kommt, ist das, was in den KI-Tools entsprechend verwendet und berücksichtigt wird. Alles, was wir einkaufen und bis jetzt unter Marketing und Werbung gelaufen ist, wird wahrscheinlich eher schwierig in Zukunft. Strategisch müssen wir umdenken in Zukunft.
Dani: Nun frage ich mich, wie zuvor bereits, was hat das für die Marketingverantwortlichen für eine Auswirkung? Müssen sie jetzt handeln oder was ist deine Empfehlung an die Marketingverantwortlichen?
Erich: Das heisst auch wieder in der Strategie, ich muss mehr auf PR Content setzen und nicht auf solchen, den ich einkaufe und dafür zahle, dass der Content dann publiziert wird. PR wird in Zukunft sicher mehr Gewicht bekommen und auf der Seite selbst auch wertvollen und nützlichen Content liefern.
Dani: Ja, das ist eine wunderschöne Überleitung. Heute sind wir richtig zügig durch mit unseren News. Gehen wir doch gleich zum Hauptthema: SEO News.
Google Search Central Deep Dive, APAC 2025 hat stattgefunden. Das ist das typische Google Search Meeting, das es gibt.
Hier haben wir Neuigkeiten, über die wir euch berichten wollen. Vielleicht, Erich, fass doch mal zusammen, was sind die neuesten Erkenntnisse aus dieser Konferenz?
Erich: Google hat diese Konferenz mit etwas gestartet, das für Stimmung gesorgt hat. Sie sagten, dass für AI-Mode und AI-Overviews klassisch SEO lenkt und es neue Disziplinen, wie Geo, LMO Optimization oder wie auch immer Optimization heisst, gar nicht braucht, sondern dass klassisch SEO reicht.
Dani: Das heisst jetzt natürlich, ein klarer Fokus auf Google ausgerichtet. Ist ja auch eine Google Konferenz. Wir reden jetzt natürlich nur über AI-Mode und AI-Overview, vielleicht blenden wir das auch nochmal ein, dass man den Unterschied sieht. Aber was ist mit anderen KI-Modellen? Was ist hier relevant?
Erich: Ich war ja nicht selbst dort, aber aufgrund der Berichte und Slides, die ich gesehen habe, ist mir durch den Kopf geschossen, dass es für AI-Mode und AI-Overviews und für Google Suche stimmt. Aber sie haben relativiert, dass zum Beispiel Gemini von Google und andere Crawler, andere Bots und Indexierungsprozesse verwenden und eine andere Datenbasis aufgrund von dem haben müssen und nicht auf dem gleichen Datenstamm basiert, wie die ganze Suche. Das heisst auch die anderen KI-Assistenten, wie ChatGPT und so weiter für die zählt das nicht. Was wir diskutieren, ist: Google spezifisch auf Google Suche und AI-Mode und AI-Overviews. Und ist nicht generell, global für alle KI-Assistenten gültig, die wir hier anschauen müssen.
Dani: Das heisst, wir haben auch in der letzten Folge schon darüber gesprochen. Google hat klargestellt, dass Inhalt die echten Nutzeranfragen beantworten und Probleme lösen will. Und das hat es deutlich hervorgehoben. Das ist klar, die Indexierung wird für die Beantwortung dieser Anfragen klar fokussiert werden. Was für News gibt es denn bezüglich dem Nutzenverhalten an dieser Google Konferenz? Gibt es dort Neuigkeiten?
Erich: Dort hat es auch interessante Outputs gegeben. Eines, das vor allem Android User kennen. Es gibt eine Funktion, die heisst «Circle to Search». Das ist direkt in den Android Handys. Ich weiss es nicht im Detail, da ich kein Android habe. Ich hätte es vorher anschauen müssen.
Aber Circle to Search ist etwas, wo ich ein Bild machen kann, etwas einkreisen und dann werden Werte zum Resultat angezeigt. Rund 10% der Suchanfragen, die über Google gemacht werden, sind heute über das Circle to Search. Auch Google Lense ist etwas, was wir auf iPhones oder iOS Handys in der Google App haben. Ich kann ein Foto machen und hochladen. Dann bekomme ich das Suchresultat angezeigt. Das ist extrem stark am Zunehmen und Wachsen. Und jede fünfte dieser Anfragen hat einen kommerziellen Hintergrund. Das heisst, da lässt jemand ein Produktfoto hochladen und will dann etwas kaufen. Was sie auch gesagt haben, ist, dass vor allem die Gen Z die Hauptnutzer dieser Funktionalitäten sind und das exzessiv nutzen.
Dani: Die sehen natürlich ein Foto irgendwo auf einem Social Kanal und dieses Produkt hätten sie dann gerne und werden dementsprechend das Foto einkreisen und sagen: "Jetzt einmal bestellen!". Suchanfragen werden auch immer länger. Man hat vermutet, dass im Schnitt 4,5 Wörter gesucht werden pro Suchanfrage. Über 50% der Suchanfragen werden schon mit Audio gestellt: Ich spreche und drücke aufs Mikrofon. Das heisst, auch das Auswerten ist nicht mehr so einfach, weil wir ja nicht nur ein Keyword anschauen und sagen, wie ranke ich jetzt auf die TYPO3, sondern ich weiss gar nicht, was er alles gesucht hat, weil er vielleicht ein langer Satz, ein Long Term Suchwort verwendet. Und das ist beim Auswerten dann viel schwieriger herauszufinden, wo ist eigentlich mein Content. Oder wie siehst du das?
Erich: Ja, in der Search Console kann man das anschauen. Da gibt es einen Filter, der heisst Regex. Das ist eine bestimmte Art und Weise, wie man Abfragen machen kann. Das können wir auch in den Artikel kopieren, wie man das macht mit der Search Console und Regex dazu, wo man sieht, was sind überlange Anfragen. Und dann sieht man dort solche Abfragen und nicht nur Keywords.
Was jetzt das Ganze mit der Bildersuche etc. heisst, ist natürlich Bilderverschlag wortung, saubere Bildnamen vergeben, Bilder SEO machen und das gleiche auch bei Video. Alles optimieren für Bild und Sprach und Audiosuche. Kontext auch dazugeben für Voice Search, damit man den Kontext dazu hat und Google das entsprechend auswerten und anzeigen kann.
Dani: Bei den Bildern den Alt Tags also wirklich pflegen. Es ist immer wieder das Gleiche bei Videos, die man einsetzt, die wirklich länger etwas erklären. Ein Transkript zur Verfügung stellen, dass Google, das auch durchlesen kann. Und am besten zum Video, wie wir es hier auch im Zweiblog machen, dass ihr das Transkript teilt und Google, das auch sauber indexieren kann und eben den Kontext zum Artikel zur Verfügung stellt.
Erich: Was auch noch interessant war, ist, dass Google endlich das erste Mal offiziell bestätigt, dass der Fokus auf mobile sein wird. Mobile Performance: da haben wir auch schon ein paar Mal drüber gesprochen. Wer seine Webseite im Jahr 2025 nicht mobile optimiert hat, der hat leider verloren und wird in Zukunft weniger Chancen haben, in den ganzen Suchen und KI-Tools sichtbar zu sein.
Dani: Dann würde es uns natürlich jetzt interessieren, für unsere Zuschauer und Zuhörer, wie geht Google mit den Seiten vor, die jetzt indexiert, ausgewertet und nachher als Suche, als Treffer gerankt zu werden? Wie gehen sie dort vor?
Erich: Das sind klassisch drei Schritte und sie haben auch die Konferenz nach diesen drei Schritten in die drei Tage aufteilt. Schritt eins ist Crawling.
Dort geht der Googlebot und durchforscht die Seiten, die ihm übermittelt werden oder die er findet. Also den Inhalt der Seiten abrufen.
Schritt 2: Der Inhalt wird bereinigt, entsprechend verarbeitet und in die Index Databank hineingeschrieben.
Der Schritt 3 ist Ranking Serving: das heisst das Verstehen der Anfrage des Kunden und die richtigen Inhalte, die relevant sind für die Anfrage nachher dem Kunden oder dem User entsprechend anzuzeigen. Und darin auch enthalten ist, das, was wir als AI-Overviews kennen, dass Google die gefundenen Seiten ausgewertet und in einem Summary im User Noten gegenüber angezeigt.
Dani: Dann lasst uns mal über das Crawling reden. Wir haben jetzt gerade eine neue Website live gestellt mit hunderten von Inhaltsseite. Was geht denn da in dem Moment vom Crawling ab?
Erich: Das erste ist wichtig, der Begriff Crawl Budget. Dieser wird immer wieder verwendet. Das ist eine Google Kennzahl, bei der sie sagen, dass sie so viel Aufwand betreiben, um deine Seiten zu indexieren. Das kann jetzt hier sein, dass Google sagt, wir haben ein Crawl Budget von 1000 Seiten. Wir würden 1000 Seiten indexieren, wenn dort keine Fehler drauf sind und deine Seite schnell reagiert.
Wenn deine Seite langsam reagiert oder Fehler auf gewissen URLs sind, fliegen die natürlich aus diesen 1000 raus. Die zählen schon zu diesen 1000 Seiten. Aber das ist wie ein hypothetischer Wert, wo sie sagen, wir werden mal so viele Ressourcen anwenden, um deine Seite zu crawlen. Und wie gesagt, je schneller die Seite ist und desto weniger Fehler auf der Seite sind, desto mehr Seiten werden in diesem Crawl Budget verarbeitet. Wichtig: das Crawl Budget ist erst relevant für grössere Seiten, die ab ca. 1000 einzelne Seiten haben, die crawlt werden müssen.
Dani: Heisst, wenn ich mit vielen Seiten neu live gehe, nicht nur mit Hunderten, sondern mit Tausenden vielleicht einem Shop mit vielen Produkten dann ist es umso wichtiger, dass ich keine Serverfehler habe und die sofort behoben werden. Denn sonst verschwende ich das Crawl Budget für Fehler, die verarbeitet werden. Ist das richtig? Und woher weiss ich, dass ich jetzt hier in einen Fehler hineinlaufe oder, dass mein Crawl Problem von fehlerhaften Seiten entsteht?
Erich: Ansehen kann man das in der Search Console. Da kommen wir noch dazu, was die Meinung von Google bezüglich der Search Console ist und welche Fehler dort relevant sind. Was aber wichtig ist: Wenn Google sieht, wie du gesagt hast, ich starte mal mit 1000 Seiten, ob das so ist oder nicht, weiss niemand. Das ist nicht transparent. Das ist eine Zahl, die so rumgeistert in der Community, dass es ab 1000 langsam relevant wird.
Aber wenn Google sieht, die liefern guten Inhalt. Dann erhöht sich das Crawlbudget, weil dann crawlen sie immer mehr. Aber das passiert schrittweise.
Dani: Dann hat das auch mit den Robots zu tun? Wie kann ich Google sagen: Das sind meine 10'000 Seiten? Wie sage ich das?
Erich: Das ist der erste Schritt, den ich habe, was Google auf einer Seite anschaut: die robots.txt Datei. Die robots.txt Datei ist eine versteckte Steuerdatei, die sagt, welche Seitenbereiche gecrawlt und welche ausgeschlossen werden sollen. Auch beim Index. Von dort aus gibt es eine sogenannte Sitemap XML Datei, die ist auch versteckt. Das muss man sich vorstellen wie ein Katalog, in dem alle URLs meiner Seite sind, die ich Google und auch andere Suchmaschinen übermittele und sage: "Hey, das sind die URLs und die können ihr hier entsprechend indexieren." Ob die dann das machen oder nicht, ist nochmals eine andere Sache. Von dort aus haben die Crawler Anhaltspunkte, crawlen die Seite und da finden sie weitere Links und berücksichtigen diese ebenfalls.
Dani: Das heisst aber auch im Umkehrschluss, wir sagen mal was ist wichtig für euch oder für Google, wo muss er hin, was indexieren. Wenn ich das richtig sehe oder wahrgenommen habe aus dieser Konferenz, ist aber auch die interne Verlinkung wichtig. Das heisst, es wurde nochmals betont, dass die Crawler auch den internen Links folgen, nicht nur im Sitemap, wo ich sage, das ist meine Seite 1, 2, 3, 4, 5, sondern sie schauen auch, wie die Seiten miteinander verbunden sind.
Ist auch eben die Struktur und Relevanz, wie ich die Seitenarchitektur aufbaue, extrem wichtig, damit es eine durchdachte Linkstrategie ist, die Google dann interpretieren kann. Das finde ich wichtiger denn je.
Erich: Was sie auch gesagt haben, war, dass 404 Fehlerseiten das Crawlbudget negativ beeinflussen.
Dort sagte Google, dass das so nicht der Fall sei. Alle 400er Fehlermeldungen wenn eine Seite aufgerufen wird und diese nicht existiert und nicht gefunden wird, dann kommt eine sogenannte 404 Fehlermeldung die gehen nicht auf das Crawl Budget. Was ich jedoch bezweifle, insbesondere wenn man wirklich ganz grosse Seiten hat, das wird garantiert auch einen Einfluss auf das Crawl Budget haben. Das kann ich mir nicht vorstellen. Das sehen auch andere aus der Community so.
Dani: Man weiss auch, sie crawlen schneller als sie indexieren. Kommen wir zum zweiten Punkt, den du vorhin genannt hast: die Indexierung.
Wie geht es jetzt weiter, wenn Crawled ist und nun indexiert wird? Dort ist es dann so, dass man eben nicht Content auf der Seite haben sollte, welcher für die Suchmaschine optimiert wurde, sondern relevanter Content.
Erzähl mal etwas zum Indexieren. Was hat dort jetzt Relevanz des Crawlens zum Indexieren?
Erich: Beim Indexieren geht es darum, den Inhalt, der gefunden wurde, aufzubereiten: doppelte Einträge rauslöschen, die ganze Seite rendern, damit man sieht, was für Content auf dieser Seite enthalten ist. Das wird dann ausgewertet und in den Index, die Datenbank reingeschrieben, wo der Treffer herausgeholt wurde.
Dort unterscheidet Google zwischen Soft 404 Fehlern, im Gegensatz zu den 400er Fehlern, wo die Seite nicht existiert. Die «Soft 404» sind Seiten, die wenig Content haben oder wo Google sagt, dass sie keine Relevanz haben. Und das sieht man auch in der Search Console: die Seiten wurden zwar «crawled», jedoch nicht indexiert. Das betrifft vor allem Seiten, die gemäss Google wenig relevanten Content haben oder die Contentqualität als schlecht eingestuft wird.
Dani: Heisst, wenn ich eine Seite live stelle, eigentlich mit Bullshit, dann wird sie lange nicht im Index auftauchen und wird von Google nicht gefunden. Heisst im Umkehrschluss, nur noch wirklich wichtige Inhalte schaffen es in den Index. Seiten, die man mit mittelmässigem Content unter einer kleinen Beschreibung auf Platz 1 bis 10 landet bei Google, sind vorbei. So wird man nicht mehr grosses Manövriermassen haben, wenn man nicht gehaltvolle Content liefern kann. Gehen wir aber weiter.
Dann gibt es auch noch Doublicate Content und solche Themen. Es ist nicht nur der Content, der indexiert wird, welcher die Relevanz schafft, sondern eben, wir haben ja noch Harte 404, Soft 404, wir haben Inhalte, die teilweise doppelt sind oder gerade auch länderspezifisch doppelt entstehen. Was ist dazu zu erzählen?
Erich: Gut, das war jetzt nicht unbedingt etwas Neues, was an der Konferenz kam. Aber dort wurde nochmals darauf hingewiesen, dass die Canonical Tags eine wichtige Rolle spielen. Canonical Tags heisst, wenn ich zwei Seiten habe, die ähnlichen Content haben. Da kann ich auf der einen Seite sagen: "Hey, berücksichtige die andere Seite, die ist relevant bezüglich dieses Contents." Und das kann ich machen über das Well Canonical über den Canonical Link den ich setze. Dort definiere ich, welche Seite die Relevante ist.
Dani: Aber es kann ja sein, dass ich eine internationale Firma bin und ich habe wirklich im Schweizerdeutschen die gleichen Inhalte für ein Produkt oder eine Beschreibung, wie ich in Deutschland und sogar in Österreich habe. Vielleicht noch mit dem einzigen Unterschied, dass ich in Deutschland das scharfe S nutze und in der Schweiz doppel SS schreibe. Wie gehe ich da vor? Ich möchte jbei Google Deutschland sichtbar sein, ich will bei Google in der Schweiz sichtbar sein, ich will bei Google Österreich sichtbar sein. Was mache ich denn da?
Erich: Das Gleiche haben wir auch, wenn wir französischen, deutschen und italienischen Content in der Schweiz haben, wo wir den Content übersetzen. Dort gibt es den sogenannten Hreflang, den ich definieren kann. Was dort aber wichtig ist bei den Hreflang, die muss ich auf allen Sprachseiten bidirektional haben. Das heisst, ich muss von Deutsch auf Französisch verweisen und Google oder der Suchmaschine sagen: "Hey, du bist jetzt zwar auf der deutschen Seite und diese Seite in französischer Sprache ist diese und umgekehrt auf der französischen Seite muss ich sagen: Die deutsche Seite ist diese. Ich muss gegenseitig diese Seiten mit dem Hreflang Tag im Hintergrund verlinken.
Dani: Damit, wenn Google am Indexieren ist, auch sieht, das ist diese Sprache oder das ist diese Sprache oder das Land, um eben Klarheit zu schaffen…
Erich: … und die Erkennung als Duplicate Content verhindern resp. dass es eben keiner ist. Oder, dass Google am Ende sagt, welches die richtige Seite ist. Das machen sie zum Teil auch. Bei den Canonicals sieht man in der Search Console, ob es sich um vom User definierte Canonicals handelt, oder ob Google die Canonicals definiert hat, weil es aufgrund des User Codes unklar war.
Dani: Heisst aber, es lohnt sich immer wieder in die Search Consolen hineinzuschauen, um zu erkennen, ob man alles richtig gesetzt hat. Oder Google sagt, dass man eine ganz andere URL gesetzt hat, dann zeugt es von einem Fehler im System, wo die Canonicals falsch gesetzt wurden.
Es ging noch ein weiteres Thema an dieser Konferenz, nämlich JavaScript. Da hat Google gesagt: "Hey, legt doch diese wichtigen, sehr relevanten Informationen ins HTML und speist diese nicht via JavaScript ein".
Erich: Die Aussage war nicht so, dass sie gesagt haben, dass man das gar nicht mehr machen darf. Die Aussage war einfach, wenn ihr sicher gehen wollt, dass es von uns angeschaut wird, dann macht es in HTML. Ihr dürft das schon auf JavaScript machen. Wenn ihr Pech habt, interpretieren wir es einfach nicht richtig oder gar nicht. Das war die Aussage dahinter.
Was aber noch dazukommt, ist das Document Object Model, das man auf einer Webseite hat.
Das ist eine Hierarchie und auch wieder eine Struktur im Hintergrund, wie eine Webseite aufgebaut wird. Die fängt grundsätzlich an mit einem Head und einem Bodybereich. Der Headbereich sind Zusatzinformationen, die auf der Webseite nicht angestellt werden. Hier reden wir nicht von den Kopfzielen eurer Webseite, in der die Navigation ist, sondern es geht sogenannte Metainformationen, die im Hintergrund abgelegt sind, die verschiedene Aufgabenstellungen haben.
Dann kommt der Bodybereich. Im Bodybereich erwartet Google, dass der Inhalt kommt, sprich das, was wirklichen Wert hat auf eurer Webseite. Dort versuchen sie zu identifizieren, z.B. habe ich eine Navigation, eine Fusszeile. Habe ich eventuell eine Sidebar, die man heute immer weniger sieht. Oder eine Seitenspalte und was ist wirklich der Content und was ist das, was am meisten Gewicht hat, und probieren das aus der Seitenstruktur herauszulesen. Diese bekommt dort immer mehr Gewicht. Innerhalb des Bodycontents ist es wichtig, eine saubere Struktur zu haben mit H1, H2, H3. Wie die Seite strukturiert ist, dass Crawler die Daten anschliessend entsprechenden herausziehen und in der Indexierung verarbeiten können.
Dani: Und eben diese strukturierten Daten nach Schema.org Prinzip werden wie in den letzten Folgen schon ein paar Mal darüber diskutiert immer wichtiger. Kommen wir zum zweiten Thema, zum Soft 404. Du hast ihn vorhin schon einmal angesprochen. Das sind Seiten, die entweder einen Fehler haben oder wo einfach kein oder praktisch kein Inhalt drauf ist. Dort muss man auch aufpassen und beobachten, was Google Soft 404 auszeichnet, weil wenn das eine extreme Häufigkeit darstellt, kann es sein, dass sogar die ganze Domäne gesperrt wird und dort nie gefunden wird.
Erich: Das sieht man zwar crawlt indexiert, aber vorne wird nie etwas angezeigt.
Dani: Dann kommen wir zum dritten und letzten Punkt, den du vorhin aufgezählt hast: Ranking und Surfing. Das ist eigentlich das Herzstück, wenn ich das richtig verstehe. Wie kommt jetzt das Ranking zustande oder wie verändert sich das bei Google? Ist das jetzt einfach, weil heute Vollmond ist oder weil wieder eine neue Information auftaucht? Was sagst du dazu?
Erich: Zum Herzstück hat Google an dieser Konferenz, wie ich das rausgelesen habe, für uns hier in Europa nicht wirklich viel Relevanz gehabt. Es gab ein paar Sachen für den Asia Pacific Raum, wo diese Konferenz stattgefunden hat, vor allem für Local Business und solche Sachen. Worauf sie auch hingewiesen haben, sind die Rater Quality Guidelines.
Es gibt Leute, die aufgrund einer Anleitung von Google ich weiss nicht, wie viele hundert Seiten die hat, aber es ist ein richtiges Buch, in dem beschrieben ist, welcher Fall wie zu behandeln ist. Diese Leute beurteilen Content, basierend auf den Rater Quality Guidelines, und trainieren so den Algorithmus. Die Leute sind dazu da, dass der Algorithmus lernt, wie die Rater Quality Guidelines angewendet werden sollen.
Dort haben sie darauf hingewiesen, dass diese extrem wichtig sind. Diese verlinken wir auch in den Show Notes. Es gibt ein Overview Dokument, welches einen groben Überblick darüber gibt, dass man nicht das ganze Buch lesen muss.
Dani: Ein weiterer Punkt ist sicher, dass die Suche immer mehr Kontext versteht. Das heisst, ich gebe etwas ein und der versteht schon im Kontext, was ich suche. Das gilt für sehr globale Informationen. Dass man bei einer Suche, wo man irgendwie etwas sagt, er versteht, was ich meine.
Bei Nischenprodukten, und wir haben sehr viele B2B Firmen in unserem Kundenportfolio, merken wir, dass eben diese Kontextgeschichte bei Nischen Keywords, Begrifflichkeiten oder Produkten eher schwierig wird. Und dort ist man gut beraten, dass man diesen Kontext eben auch gerade in Beschreibungen, in Titles, im Inhalt mitgibt, damit gerade bei Nischenprodukten Google besser versteht. Ist das richtig?
Erich: Genau. Ich gehe davon aus, dass derjenige der die Membranpumpe für ich weiss nicht was anschaut, weiss, worum es geht. Aber für die KI muss ich das ein wenig ausführen und detaillierter beschreiben, was die Fachbegriffe bedeuten.
Dani: Oder auch im Kontext im B2B ist ein Radial Fan, vielleicht eben eine Lüftung von einer Industrie, aber der Endkunde sucht auch nach einem Radial Fan, weil er im Schlafzimmer etwas warm hat, ein bisschen Lüftung braucht und das ist dann das Problem.
Fassen wir doch nochmal zusammen, was sind die wichtigsten Takeaways aus dieser Google Konferenz, der APAC 2025. Erich, packe das nochmal schnell für uns in die Hard Facts.
Erich: Nutzerorientierung: Ich muss dort entsprechend Mehrwert liefern und beschreiben, wie ich spezifische Probleme löse.
Kontext und Relevanz: je differenzierter der Inhalt, desto besser.
Dann die technische Qualität der Webseite die muss sauber programmiert sein, das ist eine Grundvoraussetzung. Wenn ich das nicht habe, verbaue ich mir alles, was der Content hintendran gibt. Ich muss technisch eine sauber programmierte Webseite haben. Und ohne erstklassigen Content, Mobile, hat man im 2025 keine Chance.
Und was noch wichtig ist: die Search Console. Google will die Search Console weiter entwickeln, dass es ein Tool für alle die Leute ist, die nicht den ganzen Tag SEO machen und nebenbei noch andere Aufgaben haben und vielleicht einmal in der Woche oder alle zwei Wochen dazukommen und schauen können, läuft alles richtig. Dorthin möchten sie die Search Console weiterentwickeln. Das sieht man jetzt auch schon. Es hat eine Insights Übersicht gegeben, wo nicht mehr Diagramme und Zahlen stehen, sondern wo Google jetzt schon anfängt, konkrete Massnahmen vorzuschlagen, die man bezüglich der Implementierung auch weitergeben kann.
Dani: Die kopieren alles von den AdWords rüber, weil dort gibt es das schon lange. Ich würde sagen, die Tage der taktischen SEO Gamings sind vorbei. Das ist definitiv Geschichte. Google hat klar an dieser Konferenz Signal abgeschickt und gesagt, die Zukunft gehört wirklich im authentischen, nutzerorientierten Inhalt, die einen echten Mehrwert bieten. Und wenn das natürlich auf das Ranking dermassen Einfluss haben wird, dann ist es wirklich wichtig, dass man wieder bei wertigem Content angekommen ist. Und das würde wiederum im Umkehrschluss heissen, dass nicht alles KI für uns erledigen kann. Es braucht wieder Age to Age, Human to Human am Ende.
Erich: Human to Human und das, was man KI immer abspricht, Kreativität. Weil man sagt, KI kann eigentlich nur das machen, was in der Vergangenheit ist und zusammenfassen und dir das präsentieren, aber daraus heraus Kreative neue Ansätze und richtige Schlüsse ziehen, dort sind wir heute noch nicht.
Dani: Das war ein wunderschönes Schlussplädoyer von dir. Wir haben noch einen Extrablog dazu geschrieben, den wir hier unten auch noch verlinken. Jetzt kommen wir zum letzten Teil: “One more Thing”.
Erich: Und hier haben wir heute ein Tool, oder respektive zwei Tools, das heisst Open Graph XYZ. Was kann man mit diesem Open Graph XYZ machen?
Dani: Open Graph ist ein ganz spannendes kleines Tool. Wir müssen immer mehr Inhalte im CMS abfüllen. Sei das der Title Tag, Description Tag für Google.
Aber es gibt auch noch das sogenannte OG Tag, Open Graph Tag, das wir abfüllen können. Ein Titel, eine Description und ein Bild dazu. Warum braucht es OG Tags? Damit ich auf LinkedIn, Facebook, X oder wo auch immer einen Link posten kann. Ich kann den auf LinkedIn reinstellen und dann zeigt es mir sogar den Titel, die Description und ein schönes Produktbild, das ich dazu ausgewählt habe. Und das nimmt es aus dem Source Code heraus, wenn ich einen Link poste. Das Open Graph Tool ermöglicht mir, dass ich meine URL kurz in das Tool reinpasse. Dann zeigt es mir an, was auf den verschiedenen Plattformen ausgespielt wird und wie es aussieht, ob ich alles richtig eingefüllt habe. Danach kann ich mit Sharen starten.
Erich: Damit nicht das passiert, wie mir gestern, dass ich noch das alte Open Graph Bild drin habe, weil ich den Beitrag kopiert habe und die Beschreibung auch noch falsch war. Kein Problem mit Open Graph. Nun, wenn das passiert, dann ist das Problem bei LinkedIn immer: das bleibt ja drin, weil das ist, irgendwie im Cache. Gibt es da eine Lösungsmöglichkeit, wie ich den Cache bei LinkedIn wieder loswerde?
Dani: Das ist ganz spannend. Das gibt es immer wieder und das ist euch sicher auch schon passiert. Ihr habt irgendeine CMS Seite erstellt und dann habt ihr frohlockend gedacht: So, jetzt wird das noch geshared. Ihr habt das angefangen zu teilen auf LinkedIn und als ihr auf "Senden" drückt und den Beitrag seht ihr: Das falsche Bild, der falsche Text. Ach Gott, ich habe den OG Tag nicht angepasst, weil ich es kopiert habe von einem anderen.
Jawohl, LinkedIn ist da ganz perfid. Wenn sie einmal einen URL aufgerufen haben, dann laden sie den OG Tag hinein. Sie merken sich das Bild, den Titel, den Text und von da an, jeder der diese URL postet, wenn du es nicht korrigierst, wird immer das falsche angezeigt. Obwohl ich es vielleicht in der Zwischenzeit schon geändert habe. Er nimmt es nicht mehr raus, er hat es abgespeichert.9
Aber auch hier haben wir Hilfe, hier bei unseren Links unten dran: Es gibt von linkedin.com eine Seite, die heisst /post-inspector.de. Dort kommt ihr auf eine Seite, wo ihr eine URL einfügen könnt, Prüfen drücken und dann überschreibt er seinen eigenen Cache in diesem Moment. Und ab dann ist das Posten mit dem falschen URL wieder eine frohlockende Geschichte.
Erich: Super, dann haben wir diese Episode im Kasten. Du kannst von dem her beruhigt in die Ferien gehen nächste Woche, denn wir sind jetzt ein bisschen früher dran mit Aufzeichnen.
Dani: Ja, ich schneide dann den Film in den Ferien. Dann bleibt uns nur noch eines zu sagen: Kommentieren, liken und uns Rückmeldung geben, welche Themen ihr behandelt haben möchtet oder was wir besser machen können. Von Kritik kann man lernen.
Erich:Tschüss zusammen, macht's gut.