Aldi Nord und Aldi Süd haben beschlossen, ihren gemeinsamen Online-Shop bis zum 30. September 2025 einzustellen, nur vier Jahre nach dessen Einführung. Trotz eines Umsatzes von 33,9 Millionen Euro im vergangenen Jahr musste der Shop einen Verlust von 4,8 Millionen Euro verzeichnen. Aldi möchte sich künftig stärker auf das stationäre Geschäft konzentrieren, da der Online-Shop nicht mehr zur aktuellen strategischen Ausrichtung passt.
Erich betont, dass Aldi kulturell und digital nicht ausreichend vorbereitet war, um im E-Commerce erfolgreich zu sein. Der Aufbau eines Online-Geschäfts erfordert andere Strukturen und eine tiefere digitale Transformation, die viel Zeit, Budget und Engagement erfordert. Rückzug aus digitalen Projekten könnte langfristig das nötige Know-how kosten und Unternehmen in der Zukunft teuer zu stehen kommen.
Dan hebt hervor, dass für B2B-Unternehmen der Webshop ein zentraler Bestandteil ihres Geschäftsmodells bleibt. Erich fügt hinzu, dass die Logistikprozesse die grössten Herausforderungen im E-Commerce darstellen. Automatisierungstechnologien wie Robotik und intelligente Lagerlogistik werden zunehmend an Bedeutung gewinnen und die Branche verändern.
hat in einer skandinavischen Studie gezeigt, dass es den Wettbewerb im Onlinehandel stärkt und das Preisniveau senkt. Besonders in ländlichen Regionen, wo Einkäufe oft zu Fuss erledigt werden müssen, kommt die Plattform gut an. Temu bietet ein vielfältigeres Sortiment und extrem wettbewerbsfähige Preise. Der Druck auf den Einzelhandel wächst, da Händler ihre Preisgestaltung anpassen müssen, um konkurrenzfähig zu bleiben.
Für E-Commerce-Plattformen ist der Preis ein entscheidender Faktor, aber auch die Einzigartigkeit und Vielfalt des Sortiments sowie das Kauferlebnis spielen eine zentrale Rolle. Die Studie verdeutlicht, wie wichtig eine durchdachte Logistik und ein ansprechendes Design sind, um sich abzuheben und Kunden zu binden.
Die MACH-Architektur, massgeblich von Commercetools vorangetrieben, setzt auf vier Hauptkomponenten: Mikroservices, API-First, Cloud-Native und Headless. Sie bietet eine flexible, modulare Software-Architektur, bei der spezifische Services je nach Bedarf kombiniert werden können, statt auf monolithische All-in-One-Lösungen zu setzen.
Obwohl einige Experten die MACH-Architektur als „tot“ betrachten, hält Erich sie für eine sinnvolle Lösung, die stark vom jeweiligen Unternehmen abhängt. Sie ist besonders für grössere Unternehmen mit ausreichenden Ressourcen geeignet, da ihre Flexibilität und Modularität das schnelle Austauschen von Komponenten ermöglichen. Für kleinere Unternehmen ist sie dagegen weniger praktikabel.
Ein Konzept zur Optimierung von Inhalten für KI-gesteuerte Suchmaschinen. GEO unterscheidet sich von klassischem SEO, da es nicht nur um Keywords geht, sondern darum, dass KI-Systeme Inhalte als relevante Quellen erkennen. Der Fokus liegt auf technischer und inhaltlicher Optimierung. Technisch geht es um Strukturen wie die Robots.txt-Datei und strukturierte Daten, während inhaltlich der Kontext und relevante, gut aufbereitete Informationen entscheidend sind.
Ein wichtiger Punkt ist, dass die KI nicht mehr nur nach Keywords sucht, sondern den Zusammenhang und den Inhalt selbst versteht. Wichtig sind klare, strukturierte Informationen, wie z.B. FAQ-Bereiche, die mit Schema.org ausgezeichnet werden. Die Messbarkeit von GEO ist noch eine Herausforderung, da die Interaktionen über KI-Systeme schwer nachzuvollziehen sind, im Gegensatz zu klassischen Suchmaschinen.
Die Zukunft von GEO wird ähnlich wie SEO sein, mit eigenen Tools und spezialisierten Fachkenntnissen. Die wichtigsten Chancen liegen in der besseren Sichtbarkeit in KI-gesteuerten Systemen, wobei die Herausforderung in der Nachverfolgbarkeit und Messbarkeit von Erfolgen liegt.
ContextMinds ist ein KI-unterstütztes Mind-Mapping-Tool, das bei der Content-Erstellung und SEO-Optimierung hilft. Es ermöglicht das Sammeln und Strukturieren von relevanten Inhalten zu einem Thema, indem es häufig gestellte Fragen und bestehende Artikel einbindet. Das Tool kann auch automatisch Entwürfe für Blog-Beiträge, LinkedIn-Posts oder Landing Pages generieren, die dann weiter optimiert werden können. Besonders nützlich ist es für Content Creator und Freelancer, da es die Themenfindung erleichtert und effizient strukturierte Inhalte liefert. Auch die Tonalität des Unternehmens lässt sich anpassen, um konsistente Inhalte zu erstellen.
Mehr über ContextMinds hier.
Dan: Hallo und herzlich willkommen zu einem weiteren Zweiblog-Videoformat. Ich bin der Dan.
Erich: Mein Name ist Erich, und auch heute haben wir wieder einige spannende Themen für euch vorbereitet, die wir gemeinsam unter die Lupe nehmen möchten.
Wie gewohnt starten wir mit drei aktuellen News:
Im Anschluss widmen wir uns unserem Hauptthema:
„Wie optimiere ich meine Website für den Einsatz von KI?“ – Hier zeigen wir konkrete Ansätze und Praxisbeispiele, wie ihr eure Website fit für die Zukunft macht.
Und zum Schluss gibt es noch eine kleine Überraschung:
Wir stellen euch ein weiteres praktisches Tool vor, das wir selbst im Einsatz haben – und gemeinsam werfen wir einen Blick darauf.
Dan: Starten wir direkt mit der ersten News – und die sorgt für ordentlich Gesprächsstoff: Aldi Nord und Aldi Süd rücken näher zusammen und treffen eine weitreichende Entscheidung. Der gemeinsame Online-Shop wird zum 30. September 2025 eingestellt.
Diese Entscheidung markiert einen bemerkenswerten Schritt im deutschen E-Commerce und wirft Fragen zur strategischen Ausrichtung der beiden Discounter auf. Welche Hintergründe es dafür gibt und welche Auswirkungen das auf den Markt haben könnte, schauen wir uns jetzt genauer an.
Erich: Besonders überraschend ist diese Entscheidung auch deshalb, weil der gemeinsame Online-Shop von Aldi Nord und Süd erst 2021 gestartet wurde.
In der Branche gilt die Ankündigung daher durchaus als Paukenschlag – nur vier Jahre nach dem Launch ziehen die Discounter bereits wieder den Stecker. Angesichts der wachsenden Bedeutung des Onlinehandels stellt sich natürlich die Frage: Warum dieser plötzliche Rückzug?
Wir werfen gleich einen genaueren Blick auf mögliche Gründe und welche Signale diese Entscheidung an den Markt sendet – sowohl für Wettbewerber als auch für die Kundschaft.
Dan: Der ist ja noch nicht alt gewesen von 2021.
Erich: Laut offiziellen Angaben erwirtschaftete der Shop im vergangenen Geschäftsjahr einen Umsatz von 33,9 Millionen Euro, musste dabei jedoch einen Verlust von rund 4,8 Millionen Euro hinnehmen.
Dan: Immerhin besser als der Verlust von 9 Millionen Euro im Jahr. Aldi hat angekündigt, sich künftig wieder verstärkt auf sein Kerngeschäft im stationären Handel zu konzentrieren. Der Online-Shop passt offenbar nicht mehr zur aktuellen strategischen Ausrichtung. Was meinst du: War Aldi kulturell und digital überhaupt bereit für diesen Schritt?
Erich: Nein, ich denke nicht, dass Aldi wirklich bereit dafür war. Denn für den erfolgreichen Aufbau eines Online-Geschäfts braucht es weit mehr als nur eine Erweiterung des bestehenden stationären Modells. Es erfordert eine völlig andere Organisation, andere Strukturen und vor allem eine andere Denkweise.
In meinen rund 15 Jahren Erfahrung in diesem Bereich habe ich immer wieder gesehen, wie stark sich die Anforderungen im stationären Handel von denen im E-Commerce unterscheiden. Im stationären Geschäft herrscht oft ein pragmatischer Ansatz: Was im Regal steht, kann gekauft werden. Wenn der Preis nicht stimmt, wird er an der Kasse angepasst. Online funktioniert das nicht.
Hier muss alles exakt sein – von der Produktverfügbarkeit über die Preisgestaltung bis hin zur Logistik.
Zudem sind digitale Transformationsprojekte extrem ressourcenintensiv. Sie brauchen Zeit, Budget und vor allem ein tiefes Commitment. Die entscheidende Frage ist also: Hat man bei Aldi tatsächlich die nötige Energie und den Fokus investiert, um dieses Vorhaben nachhaltig aufzubauen? Oder hat man versucht, auf bestehenden – vielleicht nicht geeigneten – Strukturen und Prozessen aufzubauen?
Was ich insgesamt beobachte, ist ein gewisses strategisches Risiko. Ähnliche Tendenzen sehe ich auch in der Schweiz: Wenn Unternehmen zu früh wieder aus digitalen Projekten aussteigen, gehen wichtige erste Erfahrungen verloren, die eigentlich entscheidend wären, um langfristig wettbewerbsfähig zu bleiben.
Langfristig betrachtet wird das vor allem auch zu einer Frage des Know-hows. Wenn Unternehmen sich heute aus dem digitalen Handel zurückziehen, besteht die grosse Wahrscheinlichkeit, dass sie dieses Wissen in Zukunft wieder teuer einkaufen müssen, sobald sie das Thema erneut angehen wollen.
Denn eines ist klar: Die Digitalisierung des Handels ist keine vorübergehende Erscheinung, sondern eine unumkehrbare Entwicklung. Die gesamte Branche bewegt sich in Richtung digitaler Geschäftsmodelle – unterstützt durch intelligente Logistikprozesse, automatisierte Systeme und datengetriebene Entscheidungen.
Unternehmen, die sich jetzt nicht konsequent darauf vorbereiten, riskieren mittelfristig einen strategischen Nachteil. In diesem Sinne könnte die heutige Entscheidung, digitale Aktivitäten herunterzufahren, zur Hypothek von morgen werden – mit entsprechendem Investitionsbedarf, um den Rückstand wieder aufzuholen.
Dan: Die entscheidende Frage ist, ob diese Entwicklung vor allem die grossen Handelsunternehmen betrifft. Denn für viele B2B-Unternehmen, die heute bereits im Onlinehandel aktiv sind, ist der Webshop ein zentraler Bestandteil ihres Geschäftsmodells – und wird es auch in Zukunft bleiben.
Aber eines ist klar: Für bestimmte Unternehmen – insbesondere jene, die sich aktuell aus dem digitalen Handel zurückziehen – entsteht eine strategische Hypothek, mit der sie künftig umgehen müssen.
Erich: Die zentralen Herausforderungen im heutigen E-Commerce liegen nach wie vor in den Logistikprozessen – insbesondere dann, wenn es um den physischen Warenfluss geht.
Hier entstehen häufig Engpässe, und genau an diesem Punkt setzen zunehmend innovative Lösungen an. Automatisierungstechnologien wie Robotik und intelligente Lagerlogistik gewinnen an Bedeutung und entwickeln sich weiter. Zwar erscheinen viele dieser Systeme heute noch zu kostspielig, komplex oder technologisch nicht ausgereift genug für den breiten Einsatz – doch das wird sich ändern. Die Zugänglichkeit dieser Technologien wird in absehbarer Zeit deutlich steigen.
Dan: Also Aldi Nord und Süd wird sich wieder auf das Kerngeschäft kümmern und fokussieren. Wir gehen zum nächsten Thema.
Erich: Temu – eine spannende Studie, die wir euch gerne unten in der Blogbeschreibung verlinken.
Die Untersuchung wurde in Skandinavien durchgeführt und zeigt interessante Ergebnisse: Rund drei Viertel der befragten Verbraucherinnen und Verbraucher aus dem nordischen Raum sind der Meinung, dass Temu den Wettbewerb im Onlinehandel deutlich stärkt.
Ausserdem wird der Plattform ein spürbarer Einfluss auf das allgemeine Preisniveau zugeschrieben und, dass die Preise im E-Commerce weiter sinken.
Dan: Es fällt auf, dass insbesondere ländliche Regionen betroffen sind, oder? Etwa die Hälfte der nordischen Bevölkerung ist gezwungen, ihre Einkäufe zu Fuss zu erledigen, was in den weiten Gebieten Skandinaviens durchaus eine Herausforderung darstellen kann. Könnte genau das ein wesentlicher Grund dafür sein, dass Temu dort so stark ankommt?
Erich: Ja, ich denke, das ist sicherlich einer der Gründe. Ein weiterer interessanter Punkt, der in der Studie aufgezeigt wurde, ist, dass zwei Drittel der Befragten angaben, dass das Sortiment auf Temu deutlich vielfältiger ist als das, was sie andernorts finden. Darüber hinaus betonten die meisten Teilnehmer, dass die Preisgestaltung auf Temu extrem wettbewerbsfähig und günstig ist.
Dan: Ich würde jetzt keine Sonnencreme bestellen, aber ja, gehen wir mal weiter. Was ist sonst noch rausgekommen bei der Studie?
Erich: Der Einfluss von Temu auf den Einzelhandel ist nicht zu unterschätzen. Es übt erheblichen Druck auf den Einzelhandel und die Händler in Skandinavien aus, die sich gezwungen sehen, ihre Preisgestaltung anzupassen und wettbewerbsfähig zu bleiben. Wie Stefan Wenzel aus Deutschland immer wieder betont: Es reicht heutzutage nicht mehr aus, einfach Produkte in China zu produzieren, das eigene Label anzubringen und zu erwarten, dass man dafür höhere Preise erzielen kann.
Dan: Temu scheint den Einzelhandel tatsächlich zu revolutionieren. Von der Preisgestaltung bis hin zur Logistik bietet die Plattform eine durchdachte und effiziente Lösung, die den gesamten Prozess nahtlos integriert.
Erich: An was denkst du, was können die E-Commerce-Plattformen bei uns davon lernen?
Dan: Der Preis ist stets ein zentrales Thema im Handel, etwas, mit dem wir tagtäglich arbeiten. Natürlich lässt sich nicht einfach sagen: „Biete einen besseren Preis an, und das war’s.“ Dennoch ist ein wettbewerbsfähiger Preis in vielen Fällen der entscheidende Faktor, um sich abzuheben.
Ein weiterer wichtiger Aspekt ist die Einzigartigkeit und Vielfalt des Sortiments. Dies hängt jedoch stark davon ab, wer man ist und was man anbietet. Bin ich beispielsweise ein Händler, der eigene Produkte vertreibt, oder agiere ich als Plattform für andere Marken?
Kundenbindung durch interaktive und unterhaltende Elemente spielt ebenfalls eine wesentliche Rolle – das Kauferlebnis an sich ist ein zunehmend bedeutender Faktor. Wir haben das bereits vor mehr als 20 Jahren bei Apple gesehen, als das Unternehmen mit seinen innovativen Webseiten das Erlebnis und Design revolutionierte. Damals haben viele noch das ERP als „graue Maus“ wahrgenommen, während Apple mit einer visuellen Erfahrung und ansprechendem Design aufwartete. Daher ist auch der visuelle Aspekt, die UX/UI und das gesamte Verkaufserlebnis im Shop von entscheidender Bedeutung.
Erich: Mir kommt oftmals meine Reise vor 5 - 6 Jahren nach Asien in den Sinn. Da habe ich einen Shoppingtempel besucht. Ein riesengrosses Gebäude, Shops mit Waren vollgestopft, über 6 Stockwerke und überall hast du etwas anderes bekommen. Wenn du etwas Interessantes entdecktest, musstest du zugreifen, denn du wusstest, dass es in keinem anderen Geschäft das Gleiche gab. Und bei uns hast du halt in jedem Laden die gleiche Ware und es läuft nur noch über den Preis. Die Vielfalt an einzigartigen Produkten fehlt häufig, und stattdessen gibt es viele austauschbare Artikel, die nur durch den Preis differenziert werden.
Dan: Ein äusserst spannendes Erlebnis, aber natürlich stellt es die Produzenten vor eine Herausforderung. Sie können nicht einfach 150 Varianten eines Produkts anbieten. Für Plattformen wie Combi-Shops hingegen ist ein breites Sortiment von entscheidender Bedeutung, wie wir es zum Beispiel bei Amazon sehen.
Nun, lass uns zum dritten Thema übergehen.
Erich: MACH-Architektur. Ja, genau.
Dan: Wenn wir einen Blick auf die letzten News werfen, geht es vor allem um Entlastungen im E-Commerce. Doch was genau verbirgt sich hinter dem Begriff MACH-Architektur? Was bedeutet das konkret?
Erich: Die MACH-Architektur wurde massgeblich von Commercetools vorangetrieben und in die Branche eingeführt, soweit ich das verstanden habe. Der Begriff setzt sich aus vier wesentlichen Komponenten zusammen: Mikroservices, API-First, Cloud-Native und Headless.
Dan: Kurz gesagt, handelt es sich bei der MACH-Architektur um eine moderne, modulare Software-Architektur, bei der unabhängige Komponenten miteinander kombiniert werden können. Habe ich das richtig verstanden? Anstatt auf eine monolithische All-in-One-Lösung zu setzen, setzt man hier auf spezifische, flexible Services, die je nach Bedarf genutzt werden können.
Erich: Es geht also darum, wie die gesamte Architektur des Systems aufgebaut wird. Was jedoch etwas speziell war, ist die Reaktion auf die Rolle von Commercetools in diesem Kontext: Viele Experten begannen zu behaupten, dass die MACH-Architektur nun „tot“ sei, dass sie nicht mehr relevant sei, gescheitert sei oder nicht funktioniere.
Diese Haltung finde ich etwas überraschend, da ich nicht glaube, dass das der Fall ist. Letztlich hängt es stark von der einzelnen Situation ab, ob eine MACH-Architektur sinnvoll ist oder nicht. Es lässt sich nicht pauschal sagen, dass sie immer notwendig ist oder für jedes Unternehmen funktioniert. Vielmehr braucht es einen gesunden Mix aus verschiedenen Ansätzen, um den richtigen Weg für jedes Unternehmen zu finden. Das halte ich für den besten Ansatz.
Dan: Roger Cicero hatte einmal einen Song mit dem Titel „Alles kommt zurück“, vielleicht erinnerst du dich noch daran. Die Frage, die sich hier stellt, lautet jedoch: Für wen ist die MACH-Architektur tatsächlich sinnvoll? In welchen Fällen würde man diese Architektur überhaupt einsetzen?
Erich: Die MACH-Architektur ist eine sehr flexible Lösung, die es ermöglicht, Komponenten schnell auszutauschen. Sie ist modular, was bedeutet, dass nicht immer ganze Applikationsteile ersetzt werden müssen. Aufgrund dieser Eigenschaften ist sie meiner Meinung nach – basierend auf meinen Erfahrungen aus einem vergangenen Projekt – vor allem für grössere Unternehmen geeignet, die über ausreichend Ressourcen und Mittel verfügen, um eine solche Architektur umzusetzen. Für kleinere Unternehmen halte ich sie hingegen eher für weniger praktikabel und schwer umsetzbar.
Dan: Kommen wir nun zu unserem Hauptthema. In letzter Zeit erhalten wir immer mehr Anfragen von Kunden, die wissen möchten: „Wie funktioniert das mit Suchen und Künstlicher Intelligenz?“ Und hier gibt es ein neues Konzept, das immer häufiger auftaucht: SEO Generative Engine Optimization.
Im Wesentlichen geht es darum, wie man mit der neuen Art der KI-gestützten Suche optimal in Suchmaschinen platziert wird. Die Frage ist also: Wie schaffe ich es, in einer KI-Suchmaschine ganz oben zu erscheinen – ähnlich wie bei Google? Was können wir tun, um dieses Ziel zu erreichen?
Erich: Zunächst einmal, um das klarzustellen, geht es hier um GEO, nicht um SEO. GEO steht für Generative Engine Optimization, speziell im Kontext von Künstlicher Intelligenz.
Ein wichtiger Punkt ist, dass es bei KI-Suchmaschinen nicht das klassische Ranking gibt, wie wir es von Google kennen, bei dem man in einer Liste von 100 Treffern ganz oben erscheint. Stattdessen geht es darum, in der KI-Suchlösung selbst als relevante Quelle identifiziert und herangezogen zu werden.
Das Ziel des GEO-Ansatzes ist es, den Inhalt so zu optimieren und aufzubereiten, dass er von der Suchmaschine oder KI-Lösung als relevante Quelle anerkannt wird. Dabei stellt sich die Frage: Was ist für die KI relevant? Welche Kriterien müssen erfüllt werden, damit der Inhalt nicht nur als Antwort erscheint, sondern idealerweise auch als verwertbare Quelle genannt wird?
Dan: Das klingt nach einer logischen Weiterentwicklung der traditionellen Google-Suche. Doch wie geht es nun weiter? Die Frage, die sich nun stellt, ist: Was bedeutet das für uns aus technischer Sicht? Wie können wir diesen neuen Ansatz effektiv optimieren? Wie sorgen wir dafür, dass unsere Inhalte den Anforderungen der KI-Suchmaschinen gerecht werden?
Es wird viel über GEO und KI-Optimierung gesprochen, insbesondere auf Plattformen wie LinkedIn, wo nahezu jeder zweite als GEO- oder KI-Experte auftritt und behauptet, zu wissen, wie es funktioniert. Aber niemand hat bislang konkret erklärt, was Unternehmen tatsächlich tun müssen, um diese Anforderungen zu erfüllen.
Bei CS2 setzen wir auf Open Source-Ansätze, deshalb möchten wir von dir einige praktische Tipps erhalten: Worauf müssen wir achten, um unsere Inhalte so zu optimieren, dass sie in diesen neuen KI-gesteuerten Systemen erfolgreich sind?
Erich: Im Wesentlichen lässt sich das mit der klassischen SEO-Optimierung vergleichen. Auch hier gibt es zwei wesentliche Aspekte, die berücksichtigt werden müssen: den technischen und den inhaltlichen Teil.
Ich vergleiche den technischen Teil immer mit dem Bau eines Ladens: Wenn ich einen neuen Laden errichte, kann das Sortiment noch so gut und der Laden noch so ansprechend sein – aber ohne eine Tür, durch die die Kunden eintreten können, bleibt der Laden leer. Der technische Teil sorgt also dafür, dass die „Türe“ geöffnet wird und die Besucher Zugang zu den Inhalten haben. Dieser Aspekt muss unbedingt vom Partner berücksichtigt und professionell umgesetzt werden.
Auch im Bereich SEO legen wir grossen Wert darauf, den technischen Aspekt in unseren Projekten stets optimal zu unterstützen, damit alles reibungslos funktioniert.
Dan: Wenn wir nun den technisch versierten Kunden ansprechen, welche Tipps können wir ihm geben? Sollen wir einen technischen Blick auf die Thematik werfen und tiefer in die Details einsteigen?
Erich: In vielerlei Hinsicht ähneln sich die Anforderungen an die technische Optimierung mit denen der klassischen SEO. Ein zentraler Punkt ist dabei die Robots.txt-Datei. Das klingt jetzt vielleicht etwas technisch, aber diese Datei fungiert als Anleitung für Crawling-Tools, Bots oder Crawler, die auf unsere Website zugreifen. Sie gibt an, welche Seiten indexiert werden sollen, und welche ausgeschlossen werden können.
Ein klassisches Beispiel: In der Robots.txt könnte man festlegen, dass der „Mein Konto“-Bereich oder der Checkout-Prozess eines Onlineshops nicht indexiert werden müssen, da diese Seiten keine relevanten Suchergebnisse liefern. Wichtiger sind Seiten wie Listenpages, Produktseiten und Content-Seiten, die von den Crawling-Algorithmen der KI zugänglich gemacht werden sollten.
Es ist entscheidend sicherzustellen, dass diese wichtigen Seiten nicht durch Crawler blockiert werden und die KI-Systeme freien Zugang dazu haben. Natürlich gibt es auch Unternehmen, wie zum Beispiel Medienhäuser oder Zeitungen, die gezielt steuern möchten, wie ihre Inhalte gecrawlt werden. Je nachdem, wie sie ihre Inhalte indexieren oder ausschliessen möchten, können sie dies über die Robots.txt-Datei entsprechend regeln.
Dan: Dann werden sie auch nicht gefunden.
Erich: Dann werden sie nicht gefunden, aber es kommt halt immer ein bisschen auf den Inhalt drauf an. Es gibt Unternehmen, die gezielt verhindern möchten, dass ihre Inhalte in KI-Systeme aufgenommen werden, weil sie mit diesen Inhalten Geld verdienen.
Ein weiterer wichtiger Aspekt, der sowohl für SEO als auch für KI-Optimierung gilt, sind klare Strukturen. Die Daten sollten strukturiert ausgegeben werden, um die Verständlichkeit und Zugänglichkeit zu maximieren. Ein gutes Beispiel hierfür ist kiva.org, bei dem der Fokus auf strukturierten Daten liegt – ein Prinzip, das auch im Bereich SEO von Bedeutung ist.
Auf der Inhaltsseite selbst ist es ebenso wichtig, eine klare Struktur mit entsprechenden Styles zu verwenden. Dabei sollte man deutlich kennzeichnen, was die Hauptüberschrift ist und wie die Subkapitel gegliedert werden. So wird die Seite logisch aufgebaut und für Crawling-Systeme sowie KI besser verständlich.
Dan: Das klingt nach einer sehr soliden technischen Grundlage, die der Seite gegeben werden muss. Genau in diesem Bereich kommen wir als Webagentur ins Spiel: Wir stellen sicher, dass der Content, den unsere Kunden erfassen, korrekt strukturiert und an den richtigen Stellen ausgezeichnet wird. Begriffe wie Sitemap XML und Schema.org sind dabei zentrale Bestandteile, die wir in unsere Arbeit integrieren. Mit dieser technisch soliden Basis haben wir die erforderlichen Voraussetzungen geschaffen – nun stellt sich die Frage, wie es mit dem Inhalt aussieht.
Was ist nun im Bereich Inhalt relevant, und welche GEO-Optimierungs-Empfehlungen können wir für den Kunden abgeben? Wie sollten sie ihre Inhalte aufbereiten, damit sie für die KI-Indexierung und -Suchmaschinen optimal aufbereitet sind?
Erich: Das Thema ist noch relativ neu und zugleich komplex, da viele Aspekte der KI noch wie eine Blackbox wirken. In Bezug auf den Inhalt lässt sich jedoch sagen, dass es entscheidend ist, Kontext zu den veröffentlichten Inhalten zu liefern. Für KI-Systeme ist es wichtig, den Kontext eines Inhalts zu verstehen, um ihn korrekt einordnen zu können.
Früher lag der Fokus stark auf der Keyword-Optimierung, da wir wussten, dass Rankings in Suchmaschinen grösstenteils durch die Verwendung von Keywords bestimmt wurden. Heute geht die KI jedoch einen Schritt weiter: Sie versteht nicht nur die Keywords, sondern auch die Zusammenhänge und den Inhalt selbst. Methoden, bei denen Texte lediglich mit „Keyword-Stuffing“ angereichert wurden, um ein besseres Ranking zu erzielen, sind definitiv vorbei. Das hat man zwar schon immer im Bereich SEO betont, aber jetzt wird der Inhalt der Suchmaschine immer mehr in seiner tieferen Bedeutung erfasst.
Daher ist es wichtig, echten, relevanten Inhalt zu liefern, der nicht nur auf Keywords basiert, sondern wertvolle Informationen enthält. Ein weiterer wichtiger Punkt, der nachweislich hilft, ist der FAQ-Bereich. Dieser sollte strukturierte Fragen und Antworten enthalten, die von der KI leicht verarbeitet und als Antworten verwendet werden können. Natürlich muss auch dieser Bereich gut strukturiert sein, damit er von den Crawling-Algorithmen optimal erfasst wird.
Ein hilfreiches Schema hierzu bietet Schema.org, das spezielle Markup-Formate für FAQs bereitstellt. Mit diesem Markup können Fragen und Antworten korrekt ausgezeichnet werden, sodass sie von KI-Systemen als relevante Informationsquellen erkannt werden.
Dan: Keyword-Stuffing mag zwar immer noch eine verbreitete Praxis sein, aber die Evolutionsrichtung geht längst in eine andere Richtung. Ein wichtiger Grundsatz, den wir bereits von Google kennen, lautet: Content is King. Es geht darum, echte Expertise zu zeigen und wertvollen Mehrwert für den Nutzer zu schaffen. Das wird auch immer stärker in die Rankings einfliessen. Das blosse Aneinanderreihen von Keywords gehört der Vergangenheit an.
Dennoch bleibt es wichtig, das nötige Know-how zu besitzen und sich mit der Optimierung auseinanderzusetzen. Wir legen grossen Wert darauf, unseren Kunden das notwendige Wissen zu vermitteln, damit sie verstehen, was sie tun und warum es wichtig ist. Denn ohne dieses Verständnis wird die Umsetzung schnell zu einer Herausforderung.
Das beginnt schon beim Title-Tag: Was ist das Thema der Seite? Was steckt hinter dem Description-Tag? Für wen ist die Seite relevant und welche Zielgruppe soll angesprochen werden? Besonders im B2B-Bereich muss man hier noch konkreter werden und zielgerichtet auf die Branche eingehen.
Das ist einfach notwendig, und um sicherzustellen, dass wir auf dem richtigen Weg sind, müssen wir im ständigen Dialog mit unseren Kunden bleiben. Wir teilen Know-how, tauschen Erfahrungen aus und arbeiten gemeinsam daran, dass die Inhalte nicht nur gut strukturiert sind, sondern auch wirklich relevant und wertvoll für den Endnutzer. So erzielen wir langfristig den gewünschten Erfolg.
Erich: Was dabei jedoch entscheidend ist: Früher konnte man einfach ein Skript erstellen, es so umschreiben, dass es für SEO optimiert war, und dann die Keywords an den richtigen Stellen platzieren. Dies wird sich jedoch zunehmend ändern. Der Inhalt muss nun fachlich fundiert und kompetent sein. Es reicht nicht mehr aus, dass jemand aus dem Marketing einfach einen Text schreibt – vielmehr muss man wirklich verstehen und wissen, was man in den Text einbringt.
Nur so lässt sich sicherstellen, dass die KI den Inhalt als relevante Antwort verwendet und idealerweise sogar als Quelle nennt. Das bedeutet, dass es nicht mehr darum geht, eine einfache Liste von Seiten zu präsentieren, sondern dass die KI den Inhalt zusammenfasst und entscheidet, welche Quellen sie als relevant und verlässlich für das Thema ansieht.
Dan: Selbstverständlich berücksichtigen all unsere Kunden bereits diese Aspekte. Sie überprüfen regelmässig, ob sie in der KI als relevante Antwortquelle auftauchen, wenn jemand nach spezifischen Produkten wie einem Schlafsack sucht. Ein weiterer interessanter Punkt ist, man muss auch über die Fischschwärme reden. Wir möchten gefunden werden, aber auch die richtigen Zielgruppen ansprechen. Es bringt wenig, wenn eine KI oder Google zu Themen führt, die für unser Geschäft irrelevant sind – beispielsweise, wenn wir im B2B-Bereich tätig sind, aber die Suchanfragen von Endkunden stammen.
Dies stellt uns vor die Herausforderung, dass der Endkunde nach den gleichen Begriffen sucht wie unser B2B-Kunde. Die Frage lautet also: Wie schaffe ich es, als Maschinenbauer den richtigen B2B-Kunden zu erreichen, ohne in einem Meer von Endkundenanfragen unterzugehen?
Ich sage immer, dass man „fischisch“ sprechen muss – das bedeutet, dass man die richtige Sprache und Suchbegriffe wählen muss, um den richtigen Fischschwarm zu treffen und somit gezielt die passende Zielgruppe anzusprechen.
Erich: Ein wichtiges Thema ist natürlich: Wie messe ich das Ganze?
Dan: Die Messbarkeit ist entscheidend, um zu verstehen, ob die Optimierungen tatsächlich die gewünschten Ergebnisse liefern und ob man in der KI oder in den Suchergebnissen gut platziert ist. Also bei SEO gibt es Rankings. Was gibt es für Messmethoden bei GEO?
Erich: Ja, bei GEO ist das eben ein schwieriges Thema, weil …
Dan: Ein paar Ad-Words buchen, oder?
Erich: Ja, und ich denke, das ist ein bekanntes Problem, das wir bereits bei klassischen Suchmaschinen beobachtet haben: Die zunehmende Zero-Click-Suche. Das bedeutet, dass immer mehr Informationen direkt in den Suchergebnissen angezeigt werden, sei es durch Snippets, Widgets oder andere Formate, wodurch weniger Nutzer auf die eigentliche Website klicken. Der Kunde erhält bereits die Antwort direkt in der Suchmaschine, ohne die Seite besuchen zu müssen.
Im E-Commerce und bei Produktanfragen war das schon ein spürbarer Trend, und jetzt weitet sich diese Entwicklung noch weiter aus. Wir haben bereits über den TikTok-Shop gesprochen, der genau in diese Richtung geht. In Asien ist es längst üblich, innerhalb von Apps zu shoppen, und dieser Trend breitet sich nun auch auf den westlichen Markt aus.
Deshalb wird das Messen des Erfolgs zunehmend komplexer. Denn mit der KI und den neuen Suchmaschinentechnologien kann ich den Algorithmus nicht wie bei klassischen Suchmaschinen, z.B. Google oder Bing, einfach analysieren oder reverse-engineeren, um herauszufinden, welche Faktoren relevant sind. Die Transparenz darüber, wie KI-basierte Algorithmen funktionieren und welche Inhalte letztlich als relevant bewertet werden, bleibt eine Herausforderung.
Das bedeutet, dass es sich um ein Trial-and-Error-Verfahren handelt, bei dem man herausfinden muss, wie die Blackbox der KI funktioniert und welche Faktoren tatsächlich den Erfolg beeinflussen. Um den Erfolg zu messen, muss ich sicherstellen, dass alle Nutzer, die auf meiner Seite landen, korrekt erfasst werden. Tools wie Google Analytics oder Matomo ermöglichen es mir, das Verhalten der Nutzer auf der Website zu analysieren und auszuwerten. Wichtig ist, dass ich in der Lage bin, KI-generierte Besucher separat zu identifizieren und nachvollziehen kann, wie die KI-Nutzer auf meine Seite kommen. Nur so kann ich die Blackbox der KI transparent machen und herausfinden, welche Faktoren tatsächlich relevant sind.
Zusätzlich gibt es mittlerweile spezialisierte Analysetools, die sich darauf konzentrieren, den KI-Teil der Besucherströme zu überwachen und zu analysieren. Diese Lösungen ermöglichen eine detaillierte Auswertung der KI-getriebenen Interaktionen.
Dan: Das bedeutet, dass es neue Kennzahlen gibt, auf die Marketingleiter und Verantwortliche in Zukunft besonders achten sollten. Diese sollten genau beobachten, wie sich die Entwicklungen im Bereich GEO auf ihre Marketingstrategien auswirken. Wie du bereits erwähnt hast, birgt jede Neuerung sowohl Risiken als auch Chancen. Wo sehen wir nun die grössten Chancen, die GEO bietet?
Erich: Viele Aspekte ähneln bereits den Erfahrungen, die wir aus der SEO-Optimierung kennen. Was ich jedoch als potenzielle Veränderung sehe, ist, dass bislang die Kontrolle über die Herkunft meiner Treffer klar gesteuert und auf spezifische Keywords ausgerichtet war. In der Zukunft, bei der Nutzung von KI, könnte es jedoch passieren, dass die KI neue Kontexte erkennt, in denen Inhalte von mir erscheinen – möglicherweise in Verbindung mit Lösungen, nach denen jemand sucht, die ich bisher noch nicht auf dem Radar hatte.
Dan: Das würde ich dann natürlich durch die Auswertung von Messdaten herausfinden. Wenn ich diese analysiere, könnte ich feststellen, dass plötzlich neue Zielgruppen oder „Fischschwärme“ auftauchen. In der Masse betrachtet mag dies zunächst nicht signifikant erscheinen, zumal ich, wenn ich ChatGPT nutze, selten auf einen Link klicke – zumindest bisher nicht oft. Dennoch muss man anerkennen, dass das Google-Universum in dieser Hinsicht sehr gut funktionierte. Du hast auf eine Google Ads-Anzeige geklickt, und auch später, bei weiteren Interaktionen, wurde der Nutzer weiterhin erkannt. Bei KI hingegen werden Antworten generiert, und ob du dann tatsächlich auf einen Link klickst oder nicht, spielt eine andere Rolle.
Ich denke, wenn sich jemand etwa für ein Studium interessiert, sagen wir BWL in der Schweiz, und erfragt Informationen über ChatGPT, könnte er diese später in Google nachschlagen, weil ChatGPT ihm beispielsweise die Universität St. Gallen genannt hat. Der Punkt ist jedoch, dass wir bislang keine durchgängige Messmethodik haben, die beide Welten – KI-Interaktionen und klassische Suchmaschinen – nahtlos miteinander verknüpft. Diese Methodik muss sich erst noch entwickeln.
Erich: Die Herausforderung in der Branche besteht darin, dass ich zwar erkenne, dass Traffic auf meine Seite gelangt, und auch weiss, dass dieser möglicherweise aus ChatGPT, Perplexity AI oder anderen KI-Quellen stammt. Allerdings habe ich keinen klaren Einblick darin, nach welchem spezifischen Begriff der Nutzer gesucht hat, bevor er auf meine Seite gelangt ist. Im Gegensatz zur klassischen SEO- oder AdWords-Strategie, bei der ich exakt nachvollziehen kann, welches Keyword den Nutzer zu mir geführt hat, bleibt dies im Kontext der KI-gestützten Suche oft unklar. Das stellt eine wesentliche Herausforderung dar: Wie kann ich das reverse engineerieren? Also herausfinden, warum genau der Nutzer auf meiner Seite landet. Hier bedarf es noch weiterer Entwicklungen und Anpassungen in der Branche, um eine verlässliche Messbarkeit und Nachvollziehbarkeit zu ermöglichen.
Dan: Handelt es sich hierbei bereits um die wesentlichen Schattenseiten, oder gibt es noch weitere Aspekte, die wir an dieser Stelle näher betrachten sollten?
Erich: Nein, das fasst bereits die wesentlichen Punkte zusammen, die wir gerade besprochen haben.
Dan: Gut, wollen wir fortfahren? Wir haben nun die Chancen, die Schattenseiten und die Funktionalitäten besprochen. Zusammengefasst: Es ist wichtig, sowohl mit den technischen als auch den redaktionellen Verantwortlichen zu sprechen. Wie geht es nun weiter? Wie sehen die Zukunftsperspektiven für GEO aus?
Erich: Wahrscheinlich wird sich das Ganze ähnlich entwickeln wie die SEO-Entwicklung in den 2000er Jahren. Es wird eine eigenständige Disziplin entstehen, die mit speziellen Tools, individuellem Know-how und möglicherweise einem eigenen Branchenzweig verbunden ist. Dieser Bereich wird sicherlich auch verstärkt durch KI unterstützt und dürfte deutlich schneller zu greifbaren Ergebnissen führen als die langwierigen Anpassungen, die wir bei SEO erlebt haben. Ein klassisches Beispiel, das ich immer wieder anführe, ist die technische SEO-Optimierung: Wenn ich die Entwicklungen der letzten 20 Jahre betrachte, hat sich an den Grundprinzipien kaum etwas verändert. Die technischen Elemente wie Title-Tag, Meta-Description, strukturierte Daten und Keywords sind nach wie vor zentral, mit einigen Ergänzungen wie Sitemap oder Schema.org. Aber im Kern sind diese Bestandteile seit zwei Jahrzehnten praktisch unverändert geblieben.
Dan: Wenn wir das Thema nun abschliessend zusammenfassen, …
Erich: Es ist zweifellos kein kurzfristiger Trend, sondern eine Entwicklung, die sich nachhaltig etablieren wird. Allerdings wird sie sich extrem schnell weiterentwickeln. Zentrale Themen, die bei der Erstellung von Inhalten berücksichtigt werden müssen, sind die Qualität des Contents, die Expertise, die in den Text einfliesst, und die Originalität des Materials. Diese Aspekte werden immer relevanter.
Auf der anderen Seite bleibt die technische Optimierung nach wie vor ein grundlegendes Element – genauso wie es schon bei SEO der Fall war. Es nützt wenig, den besten Content zu erstellen, wenn die technische Grundlage nicht stimmt. Es geht also darum, frühzeitig Erfahrungen zu sammeln, auszuprobieren und stetig zu evaluieren, was funktioniert. Der Markt wird sich weiterentwickeln, und es ist wichtig, diese Veränderungen aktiv zu verfolgen, um die eigene Strategie entsprechend anzupassen.
Dan: Ich denke, wir haben einen umfassenden Überblick über die GEO-Strategie gegeben, die in der Zukunft von immer mehr Unternehmen verfolgt werden wird. Wir hoffen, dass die Tipps, Tricks und Hintergrundinformationen, die wir geteilt haben, euch einen klaren Einblick darauf geben, worauf wir in der Zukunft achten werden. Damit haben wir das Hauptthema auch gut abgerundet.
Doch bevor wir zum Ende kommen, gibt es noch „There's one more thing". Wir möchten euch noch ein Tool vorstellen, das wir aus unserer Tool-Liste herausgepickt haben. Ich lasse die Katze aus dem Sack: Es handelt sich um ContextMinds – ein faszinierendes Mind-Mapping- und Text-Generierungstool.
Erich, vielleicht kannst du uns genauer erklären, was es damit auf sich hat und wie es uns unterstützen kann?
Erich: ContextMinds ist ein Mind-Mapping-Tool, das zusätzlich KI-Funktionalitäten nutzt und dabei hilft, Strukturen für die Content-Erstellung zu entwickeln. Es eignet sich besonders für SEO-Optimierung oder auch einfach für ein Brainstorming, wenn man ein Thema bearbeiten möchte. Das Besondere an ContextMinds ist, dass du innerhalb der Mindmap Themen auswählen kannst, um dann gezielt mit der KI nach relevanten Inhalten zu suchen. Diese Inhalte kannst du direkt in deine Map integrieren, wodurch sich die Map kontinuierlich erweitert.
Ein interessanter Teil des Tools ist, dass du Kategorien wie „Fragen“ anlegen kannst. Hier sucht die KI nach den häufigsten Fragen, die zu diesem Thema gestellt werden, oder nach Artikeln, die bereits dazu existieren. Diese Informationen kannst du dann ebenfalls in deine Mindmap einfliessen lassen, was den Kontext erweitert und dir hilft, ein noch besseres Verständnis für das Thema zu entwickeln.
Das ist der eine Teil, wenn ich in der kreativen Phase und am Aufbauen bin. Ein weiterer Vorteil ist, dass du die Möglichkeit hast, sogenannte Output-Profile zu definieren. Das bedeutet, du kannst aus den gefundenen Inhalten einen Blog-Beitrag, LinkedIn-Post oder Text für eine Webseite bzw. Landing Page generieren lassen. Das Tool erstellt dann eine erste Draft-Version, die du nach Belieben bearbeiten und optimieren kannst. Dieser Entwurf spart viel Zeit bei der Recherche und Strukturierung von Inhalten.
Dabei sollte man jedoch berücksichtigen, dass Google kürzlich kommuniziert hat, dass generierte Texte tendenziell als minderwertig bewertet werden könnten. Das Tool liefert dir jedoch eine Entwurfsversion, die du weiter anpassen kannst, um sicherzustellen, dass der Content hochwertig ist. Das spart nicht nur Zeit, sondern sorgt auch dafür, dass der Inhalt relevant und nützlich ist – besonders im Hinblick auf GEO.
Dan: Auch bei wiederkehrenden Aufgaben, bei denen die Struktur konsistent bleiben soll, lässt sich die Tonalität der Firma hinterlegen. Das bedeutet, dass sich ContextMinds an den spezifischen Stil und die Kommunikationsweise des Unternehmens anpassen lässt.
Wir haben bereits einige umfassende Texte mithilfe der KI erstellt und diese dann weiterbe-arbeitet und optimiert. Diese Vorgehensweise hat sich als äusserst effektiv erwiesen. Besonders für Content Creator ist das Tool eine wertvolle Unterstützung. Es hilft nicht nur dabei, sich ein ganzheitliches Bild zu einem Thema zu verschaffen, sondern auch, wenn man beispielsweise als Freelancer an verschiedenen Inhalten arbeitet. ContextMinds eignet sich hervorragend, um in solchen Fällen Ideen zu entwickeln und strukturierte Inhalte zu erstellen.
Erich: Ja, vor allem erweitert es meinen Horizont. Ich erhalte eine Antwort und muss dann selbst überlegen, wie ich weiter vorgehen möchte. Das Tool gibt mir jedoch wertvolle Impulse und Anregungen, ähnlich einem Brainstorming-Prozess, der mir hilft, neue Perspektiven zu entwickeln.
Dan: Es wird mir zwar nicht direkt meine Produkttexte verfassen, aber es unterstützt mich dabei, mich effizienter und gezielter mit möglichen Produktfragen auseinanderzusetzen und Lösungen zu finden.
Gut, also testet ruhig mal ContextMinds aus. Alle relevanten Links findet ihr unten. Damit kommen wir auch zum Ende der heutigen Ausgabe. Erich, was sind deine wichtigsten Takeaways aus unserer heutigen Diskussion?
Erich: Aus dem MACH-Thema nehme ich mit, dass digitale Strategien stets an die spezifischen Bedürfnisse des Unternehmens angepasst werden müssen, damit diese optimal integriert werden können. Der zweite Punkt ist, dass Tools wie das, über das wir gesprochen haben, enormes Potenzial für Unternehmen bieten. Allerdings muss der Einsatz solcher Technologien sinnvoll und gezielt erfolgen. Es geht nicht darum, blind dem neuesten Hype zu folgen, den „Propheten“ der Branche zu vertrauen oder das „neuste Trendthema“ einfach nur zu übernehmen. Es ist entscheidend, gut abzuwägen, ob der Einsatz solcher Lösungen wirklich einen Mehrwert für das eigene Unternehmen bringt.
Dan: Abschliessend lässt sich sagen, dass der Fokus immer auf den Bedürfnissen des Kunden liegen sollte. Ein gutes Beispiel dafür sind Unternehmen wie Temu, die stets bemüht sind, Zugänglichkeit und Benutzerfreundlichkeit (UI/UX) zu verbessern – das sind zentrale Themen, die nicht nur die Nutzererfahrung optimieren, sondern auch den Erfolg massgeblich beeinflussen.
Vielen Dank, dass ihr zugeschaut habt! Vergesst nicht, eure Fragen und Anmerkungen in den Kommentaren zu hinterlassen – besonders, wenn wir auf bestimmte Themen noch nicht eingegangen sind. Wir freuen uns auf eure Rückmeldungen!
Erich: Oder gibt es spezifische Themen oder Fragen, die euch interessieren und über die wir in einer zukünftigen Ausgabe sprechen sollen? Lasst es uns wissen – wir sind offen für eure Anregungen und freuen uns, auf die Themen einzugehen, die für euch besonders relevant sind.
Dan: Also auf jeden Fall! Vergesst nicht, einen Kommentar zu hinterlassen, unseren Newsletter zu abonnieren und ein Like dazulassen. Wir sagen vielen Dank und bis zum nächsten Mal!
Erich: Danke. Tschüss zusammen. Bis zum nächsten Mal.