Zurück zu den Artikeln
Aktivieren Sie diesen Inhalt

Bestätigung des Inhalts erforderlich

Akzeptieren
Mehr anzeigen
Web-Applikation
Technology Trends
Podcast & Videoblog
Online Marketing
Corporate Websites

MCP in Typo3

ZWEIBLOG.COM Episode #8 - Dani und Erich sprechend über das aktuelle Google-Core-Update Juni 2025, den Einfluss von Künstlicher Intelligenz auf Content und Suchmaschinenoptimierung sowie über erste Praxistests mit KI-Agenten wie dem ChatGPT-Agenten und dem Comet-Browser. Ausserdem zeigen sie, wie sich mit dem neuen Model-Context-Protocol wiederkehrende Aufgaben in TYPO3 automatisieren lassen – und stellen am Ende ein hilfreiches SEO-Tool vor, das Daten aus der Google Search Console übersichtlich aufbereitet.

Besonders lesenwert für

CEO
CTO
CMO
Creator

News

Google Core Update Juni 2025 abgeschlossen

Seit Ende Juni hat Google ein neues Core-Update ausgerollt, das Ende Juli abgeschlossen wurde. Laut einer Umfrage von SEO-Südwest zeigen viele Webmaster „Update-Müdigkeit“. Das Update fokussiert sich auf:

  • Expertise & Autorität: Inhalte mit nachweisbarer Kompetenz, Erfahrung und Vertrauen erhalten bessere Rankings.
  • Content-Qualität: Hochwertiger, ausführlicher Content wird KI-generierten Texten vorgezogen.
  • User Experience: Die mobile Nutzerfreundlichkeit wird stärker gewichtet.
  • Technische Optimierung: Strukturierte Daten und moderne Webstandards sind entscheidend.

Fazit:

Webseiten, die auf nachhaltige Qualität, technische Sauberkeit und echten Mehrwert setzen, profitieren langfristig – kurzfristige Tricks verlieren weiter an Bedeutung.

ZWEIBLOG als Podcast

Enable This Content

Content required confirmation

Accept
Show More

GPT-Agent vs. Comet Browser

Sowohl OpenAI als auch Perplexity entwickeln neue Browserlösungen mit KI:

  • GPT-Agent (OpenAI): Führt Aufgaben wie Produktsuche oder Reiseplanung direkt in einem integrierten Browser aus – innerhalb der ChatGPT-Umgebung.
  • Comet Browser (Perplexity): Ein vollwertiger Browser mit Seitenanalyse, Kontextverständnis und automatisierten Prozessen (z. B. Produktrecherche und -kauf).

Erich berichtet über erste Beta-Erfahrungen: Der Comet-Browser kann Backend-Systeme wie TYPO3 bedienen oder in Online-Shops gezielt Produkte auswählen – alles gesteuert per Texteingabe.

Fazit:

Agentic Browsing ist Realität. Während Sicherheitsaspekte wie Prompt Injection adressiert werden, entstehen völlig neue Potenziale für automatisierte Webinteraktion.

Hauptthema: MCP in TYPO3

Das Model Context Protocol (MCP) ist eine standardisierte Schnittstelle, mit der KI direkt mit Applikationen kommunizieren kann. In TYPO3 bedeutet das: Inhalte können durch KI erstellt, bearbeitet oder analysiert werden – ganz ohne tiefes Systemwissen der Nutzer:innen.

Funktionen im Überblick:

  • Automatisierte Erstellung von Meta-Descriptions, Titles, Alt-Tags
  • Integration von Übersetzungen via DeepL
  • Bearbeitung mehrerer Inhalte per Sprachbefehl
  • Aufgabenvergabe an die KI aus dem TYPO3-Backend

Sicherheit & Struktur:

Das von zwei42 entwickelte Modul arbeitet in einer geschlossenen Client-Server-Architektur – sicher, lokal und kontrolliert. Nutzerrechte aus TYPO3 bleiben erhalten. Die KI hat nur Zugriff, wo sie darf.

Fazit:

MCP transformiert das Content-Management durch echte Arbeitserleichterung, ohne auf Sicherheit zu verzichten. Besonders Redakteur:innen mit begrenzter CMS-Zeit profitieren.

Tool: SEO Gets: Google Search Console on dope!

SEO Gets ist ein freemium Tool, das Daten aus der Google Search Console analysiert und visuell aufbereitet:

  • Gruppierung von Seiten & Keywords (Content Groups & Topic Clusters) → in der Paid Version!
  • Übersicht zu Impressions, Klicks und Rankings
  • Aufdeckung von Keyword-Kannibalisierung
  • CTR-Benchmark-Vergleiche
  • Bis zu 50.000 URLs analysierbar

Fazit:

Ein ideales Tool für SEO-Verantwortliche, um Potenziale sichtbar zu machen – besonders hilfreich nach Core Updates.

20:25min
Easy shop im TYPO3
Corporate Websites
E-Commerce
Podcast & Videoblog

Corporate Shoplösungen einfach umgesetzt

ZWEIBLOG.COM Episode #5 - Die Entwicklung eines leichtgewichtigen Onlineshops im TYPO3 CMS steht im Zentrum – als Lösung für kleinere Projekte, ohne Magento-Komplexität. Dan und Erich zeigen, wie man Werbeartikel, Schulungsmaterial oder Dienstleistungen direkt im CMS verkaufen kann – ohne Systembruch und mit voller Integration.
32:18min
Multidomain Webseiten
Podcast & Videoblog
Corporate Websites

Content Vererbung / Multidomain Webseiten

ZWEIBLOG.COM Episode #6 - „Content Vererbung / Multidomain Webseiten“ steht im Fokus – mit TYPO3 als leistungsstarkem CMS für mehrsprachige und mandantenfähige Webprojekte. Dani und Erich erklären, wie Inhalte zentral gepflegt, intelligent referenziert und über viele Domains hinweg strukturiert ausgespielt werden können – effizient, suchmaschinenkonform und redaktionsfreundlich.
39:24min
Open Source Software
Technology Trends
Web-Applikation
Podcast & Videoblog
Corporate Websites
E-Commerce

Open Source Software

ZWEIBLOG.COM Episode #7 - Dani und Erich diskutieren aktuelle Entwicklungen in der digitalen Welt. Im Mittelpunkt stehen dieses Mal die Relevanz von Meta-Descriptions im Zeitalter von KI, ein bemerkenswerter Gerichtsbeschluss zum Urheberrecht KI-generierter Inhalte sowie ein umfassender Blick auf Open-Source-Software und deren Bedeutung für Unternehmen. Zudem gibt es am Ende einen spannenden Tool-Tipp.

Häufig gestellte Fragen

Welche Websites sind vom Google Core Update Juni 2025 besonders betroffen?

Am meisten betroffen sind sogenannte „Your Money, Your Life“-Seiten (YMYL), also Websites zu Gesundheit oder Finanzen, bei denen falsche Informationen Schaden anrichten könnten. Ausserdem haben Websites mit rein KI-generierten Inhalten deutliche Einbrüche, von bis zu 30%, erlebt.

Was sind die wichtigsten Schwerpunkte des Google Core Updates Juni 2025?

Das Update legt besonderen Wert auf Expertise & Autorität (nachweisbare Kompetenz, Erfahrung und Vertrauen), Content-Qualität (hochwertige und ausführliche Inhalte werden KI-generierten Texten vorgezogen), eine stärkere Bewertung der User Experience (insbesondere mobile Nutzerfreundlichkeit) sowie auf die technische Optimierung (strukturierte Daten und moderne Webstandards).

Wie können Unternehmen auf Rankingverluste durch das Google Core Update Juni 2025 reagieren?

Empfohlen werden der Nachweis von Expertise (z.B. durch strukturierte Autorendaten), der Aufbau hochwertiger Backlinks zu vertrauenswürdigen Seiten, die Pflege und Aktualisierung der strukturierten Daten, sowie die konsequente Optimierung der technischen Grundlagen und der Core Web Vitals (z.B. Ladezeiten, mobile Performance). KI-generierte Inhalte sollten gezielt nachbearbeitet und mit eigenem Fachwissen angereichert werden.

Was ist der Unterschied zwischen dem GPT-Agent (OpenAI) und dem Comet Browser (Perplexity)?

Der GPT-Agent von OpenAI arbeitet innerhalb der ChatGPT-Umgebung und kann Aufgaben wie Produktsuche, Reiseplanung oder Aktionen im Backend direkt in einem integrierten Browser ausführen. Der Comet Browser von Perplexity ist hingegen ein eigenständiger Browser mit einem eingebauten KI-Assistenten, der Seiten analysiert, Kontext versteht und automatisierte Prozesse wie Recherche, Produktauswahl oder Backend-Aufgaben per Texteingabe übernimmt.

Welche typischen Aufgaben können diese KI-Agenten im Browser übernehmen?

Die KI-Agenten können verschiedenste Aufgaben automatisiert durchführen, z. B. gezielt Produkte in Online-Shops suchen und kaufen, Inhalte auf Webseiten zusammenfassen, Seiten im CMS wie TYPO3 bearbeiten oder auch komplexe Abläufe wie Restaurantbuchungen oder Aufgabenlisten abarbeiten – alles gesteuert über einfache Texteingaben.

Wie steht es um die Sicherheit bei der Nutzung von KI-Agenten in Browsern?

Sicherheit ist ein zentrales Thema, da KI-Agenten potenziell weitreichende Zugriffsrechte bekommen. Beide Anbieter betonen, dass sie Massnahmen gegen Prompt Injection und Missbrauch getroffen haben. Beim Comet Browser von Perplexity etwa ist die Steuerung streng kontrolliert und basiert auf einer geschlossenen Systemarchitektur; gleichwohl bleiben Risiken bestehen, wie bei jeder umfassenden Automatisierung und Browser-Integration, weshalb auf Sicherheitsaspekte besonders geachtet wird.

Was ist das MCP Model Context Protocol?

Das MCP ist ein standardisiertes Protokoll, das die Kommunikation zwischen KI-Systemen und Anwendungen wie TYPO3 ermöglicht. Es erlaubt der KI, Funktionen der Anwendung abzufragen und Aufgaben automatisiert auszuführen.

Wie kann MCP von CS2 im TYPO3-Backend genutzt werden?

MCP von CS2 kann repetitive und komplexe Aufgaben im Backend automatisieren, zum Beispiel Content-Optimierungen, Meta-Datenpflege, Übersetzungen und Backend-Operationen wie das Umbenennen von Seiten.

Ist die Nutzung von MCP sicher?

Ja, durch eine geschlossene Serverarchitektur in der Implementierung von CS2 im TYPO3 Backend findet die gesamte Kommunikation nur im Backend statt, ohne dass Daten an externe Dienste übertragen werden. Zudem werden Nutzer Berechtigungen und Rollen strikt eingehalten.

Kann MCP auch mehrsprachige Webseiten unterstützen?

Ja, MCP kann so konfiguriert werden, dass Übersetzungsaufgaben automatisiert werden, inklusive Erhalt von Formatierungen und Links.

Wie profitiert mein Unternehmen von MCP?

Unternehmen sparen Zeit und Kosten durch Automatisierung, verbessern die Content-Qualität und entlasten Redakteure, die sich auf kreative Aufgaben konzentrieren können.

Was ist SEOGets und welchen Vorteil bietet es gegenüber der Google Search Console?

SEOGets ist ein kostenloses Analyse-Tool, das Daten aus der Google Search Console visualisiert und aufbereitet. Es ermöglicht unter anderem die Gruppierung von Seiten und Keywords (Content Groups & Topic Clusters), übersichtlichere Auswertungen zu Impressions, Klicks und Rankings sowie das Aufdecken von Keyword-Kannibalisierung. Im Vergleich zur Google Search Console kann SEOGets deutlich mehr URLs (bis zu 50.000) gleichzeitig auswerten und bietet somit einen umfangreicheren Einblick in das eigene SEO-Potenzial.

Video Transkript zu Zweiblog Episode #8 - Google Core Update Juni 2025, KI-Agenten Comet und ChatGPT Agent, Model Context Protocol, SEOgets

Dani: Herzlich willkommen zu der 8. Ausgabe von ZWEIBLOG.com. Heute haben wir wieder ganz spannende Themen, die wir euch erzählen wollen.

Aber zuerst natürlich wie immer der Hinweis: Denkt daran, liken und kommentieren. Das gehört einfach dazu. Und natürlich auch teilen dürft ihr es für eure Freunde, damit auch diese über unsere News immer im Bild sind. Und ja, News ist das Stichwort. Legen wir doch gleich los. Ich würde sagen, der Google Core Update ist sicher etwas, was sehr spannend ist, gerade am Anfang. Seit Ende Juni läuft bei Google der Core-Update, welcher jetzt per Ende Juli abgeschlossen ist. Was ist dort los? Zwei Drittel der Webmaster sollen gar nicht mehr so scharf sein auf die Google-Updates. Erzähl uns doch mal.

Erich: Auch wieder ein LinkedIn Post, den ich gesehen habe mit repräsentativer Umfrage von SEO-Südwest und ein paar Leute, die im Web unterwegs sind. Die haben herausgefunden, dass die Leute so update müde sind, bezüglich Core-Updates oder generellen Updates. Das kommt vor allem daher, weil so viele Updates stattfinden und dann planen die Leute eher längerfristig und auf Qualität Fokus geben. Und brechen nicht bei jedem Update eine operative Hektik aus, die sie noch hätten einführen können. Obwohl diese zum Teil relativ wichtige Änderungen mit sich bringen.

Dani: Ich habe das auch beobachtet, ich mache ja viele Gespräche mit unseren Kunden und schaue auch immer in das Semrush und Sistrix hinein. Ich bewerte das auch und was mir dort auch aufgefallen ist, für gewisse hat das wirklich zu einer Änderung geführt. Aber erzähl mal, was sind denn so die wichtigsten Änderungen vom letzten Core-Update?

Erich: Die den Podcast schon länger mithören und bereits mehrere Episoden gehört haben, für die wird das wahrscheinlich das Gleiche sein, wie wir immer etwa erzählen. Das erste ist die Bewertung von Expertise und Autorität.

Dort wurde der Algorithmus upgedated, dass dieser Expertise, Erfahrung, Autorität und Vertrauen besser erkennt. Die Content Qualität wird stärker priorisiert. Einzigartiger, ausführlicher Content wird automatisch generiert Content vorgezogen und auch höher priorisiert. Dann sollte die User Experience stärker beurteilt, gewichtet werden. Vor allem auf Mobile First, da haben wir auch schon einmal darüber berichtet in einer Podcast Episode. Und dann, dass die Seite technisch sauber programmiert ist, da reden wir wieder von strukturierten Daten und, dass diese aktuelle Standards verwendet.

Dani: Sehr spannend, diese vier Punkte, die hier wieder ins Feld geführt werden. Es ist immer schon repetitive ein ähnliches Thema. Sie justieren dort nachher, so wie es aussieht. Ich habe auch bei einem Kunde einen extremen Einbruch gesehen. Er hat mir dann auch geschrieben: Was ist hier los? Was haben wir geändert? Was ist aus deiner Sicht die Branche, die es am härtesten getroffen hat?

Erich: Branche... Es ist nicht unbedingt eine Branche, aber es gibt ja die Kategorie "Your Money, Your Life". Das sind vor allem Seiten, die mit Gesundheit, mit Finanzen zu tun haben, die der Person, die Informationen sucht, Schaden beifügen können, finanzieller oder gesundheitlicher Art und Weise. Die sind vor allem betroffen mit dem Update. Und solche, die rein KI generierte Inhalte haben, die waren auch extrem stark betroffen.

Dort gab es Rückgänge, die gemäss dem, was ich gefunden habe, bis zu 30% waren. Was man auch gesehen hat, ist: die Veränderungen waren extrem schwankend. Sie konnten an einem oder zwei Tagen besser bewertet werden. Dann ist es wieder eingebrochen. Das sieht so aus, wie Google auch noch Feinjustierungen auf dem Weg gemacht hat von diesem ganzen Update.

Dani: Heute nutzt jeder KI-Unterstützung um Texte zu veredeln, besser SEO-optimiert zu schreiben. Wenn ich einen Text schreibe, ist das ja so, dass ich den vielleicht noch durch KI durchlasse und sage, machen wir noch eine SEO-optimierte Variante. Ist das für Google per ein KI-generierter Text? Denn der Inhalt ist ja von mir.

Erich: Es gibt ja Seiten, wo ich einerseits die Texte durchlassen kann, um ihn menschlich zu machen, wo versucht wird, zu erkennen, was da drin generiert ist. Andererseits gibt es Seiten, die beurteilen, wie hoch die Wahrscheinlichkeit ist, dass der Text mit KI generiert wurde. Ich glaube, der gute Mix macht es aus. Man kann KI als Tool nehmen, das einen unterstützt bei der Generierung, die Struktur des Textes oder die Basis legt. Und dann muss man aber reingehen und den entsprechend aufwerten mit der eigenen Expertise, die man hat.

Dani: Sehr gut, vielleicht ist das auch mal ein Thema, dass wir über die KI-Generierung reden in einer nächsten Folge. Was sollen die Unternehmen jetzt machen, wenn sie nachher so einem Update, einen Taucher erleiden? Was können sie machen, damit sie wieder gut dastehen? Wie sollen sie vorgehen?

Erich: Expertisen zeigen, d.h. wer hat die Inhalte erstellt, strukturierte Daten vom Autor als Beispiel. Ein zweites Thema sind Backlinks, dass man an den Backlinks arbeiten muss, damit die Autorität aufgebracht wird.

Wirklich vertrauenswürdige Seiten, je vertrauenswürdiger die sind, desto mehr Autorität bekommt man selber, wenn diese verlinkt werden. Dann strukturierte Daten. Und der Website-Code, wie die Seite programmiert ist, wieder in Ordnung bringen. Gerade bei den strukturierten Daten, wenn ich Seiten anschaue, dann sehe ich dort immer wieder, dass das nicht sauber gepflegt ist oder nicht alle relevant strukturierten Daten vorhanden sind. KI-Content haben wir gerade darüber gesprochen, unterstützend einsetzen und selber noch härter anreichern oder optimieren, korrigieren. Und das letzte Core Web Vitals anschauen.

Wie schnell ladet die Seite, wie ist die Performance der Seite, wann werden jetzt Elemente angezeigt, die der User sieht und so. Da können wir vielleicht auch mal im Detail noch rein gehen in eine weitere Folge, was die Core Web Vitals sind. Denn die tauchen immer wieder auf und da muss man sich vor allem auf Mobile fokussieren.

Dani: Gerade für Core Web Vitals haben wir ein TYPO3 Modul, das sogar jede Nacht aufzeichnet, wie mein Page Speed ist.

Dort sieht man auch immer schön, wenn an den Core Web Vitals seitens Google gearbeitet wird, dass mein Ranking taucht oder steigt. Dann ist nicht das Frontend kaputt gegangen, sondern die Messmethode hat geändert und ich kann wieder auf das reagieren.

Ja, sicher ein spannendes Thema. Ich würde sagen, wir kommen zur nächsten News. Und auch hier können wir es einfach nicht lassen, wieder einmal über ChatGPT und Co. zu berichten.

Agentic Web, sprich Chat Agents und der Comet Browser, das ist sicher etwas, was extrem Fahrt aufnimmt im Moment. OpenAI hat zum Beispiel den Chat-GPT Agent vorgestellt und auf der anderen Seite Perplexity mit ihrem Comet Browser. Was ist der wesentliche Unterschied zwischen diesen zwei Systemen? Aber was hat es jetzt auf sich, mit dem Agent und dem Browser?

Erich: Also GPTAgent ist letzte Woche vorgestellt worden - wir haben heute den 22. Juli wo wir aufnehmen. Das ist innerhalb der ChatGPT-Funktionalität, wo ein Agent einen Webbrowser aufmacht und dort drin die Aufgaben erledigen. Das heisst, ich kann ihm sagen: Kauf mir ein Produkt oder recherchiere mir eine Webseite oder eine Reise, als Beispiel, die ich machen möchte oder recherchiere mir zu einem gewissen Thema. Und die ChatGPT erledigt dann innerhalb des Browsers diese Aufgaben. Das heisst, ich kann dort eine Aufgabe übernehmen, wie Reisen recherchieren oder etwas kaufen in einem Shop, kann aber auch in einem Backend Tasks übernehmen und die erledigen.

Dani: Das im Vergleich zum Comet-Browser von Perplexity, der eine komplett neue Art des Surfens bietet, richtig? Erich, du konntest das letzte Woche testen. Was ist der Unterschied?

Erich: Ich hatte dort einen Closed-Beta-Zugangscode und habe das dann ausprobiert. Beim Comet-Browser ist es so, dass ich nicht innerhalb von Perplexity und nichtinnerhalb des KI-Assistenten von Perplexity werden die Aufgaben gelöst. Sondern das ist ein Browser und ich habe auf der Seite das Comet-Eingabefenster, wo der KI-Assistent drinnen erscheint. Und dieser wertet dann die Seiten aus, die ich aktuell anschaue, und ich kann als Beispiel sagen: Fasse mir diese Seiten zusammen. Ich kann aber auch auf einen Onlineshop gehen. Das war ein Beispiel, das ich gemacht habe mit dem Hajk-Onlineshop, den wir haben. Da habe ich gesagt: Suche mir einen Trekking-Schuh, wasserdicht, mit meiner Schuhgrösse und einem Preis unter 200 Franken, und kaufe ihn.

Der Comet-Browser hat dann die Aufgabe ausgeführt, hat einen Artikel recherchiert. Das war ein spannend zu sehen, denn er hat zuerst versucht, über die Suche zu gehen. Hat jedoch nicht Ergebnisse gefunden, die er gesucht hat. Dann hat er die Navigation aufgemacht, ist über die Navigation gegangen und ist so dann durch die Listerpages, bis ein Produkt gefunden hat.

Es war interessant zum Zuschauen. Ein zweites Beispiel, das ich gemacht habe, war im TYPO3-Backend, wo ich auf der Testseite gesagt habe, nenne mir bitte eine Seite um. Und auch das hat wunderbar funktioniert, ohne dass das Ding irgendwie etwas gekannt hat von dem, was wir gemacht haben.

Dani: Direkt im Perplexity. Du warst eingeloggt im Backend von TYPO3 und er hat für dich geklickt.

Erich: Genau. Ich habe einfach gesagt: Benennt die Seite mit dem Titel XY in einen neuen Titel und speichert das wieder ab. Und das hat er einwandfrei gemacht. Also, alle die mit Makro-Tools zur Automatisierung von Windows gearbeitet haben, oder Testautomatisierung gemacht haben, wissen wie mühsam das ist, wenn im Frontend nur etwas Kleines im Code ändert, der Button verschoben ist, das Fenster etwas kleiner ist. Dann funktioniert nichts mehr. Ich muss alles anpassen und habe eine riesen Übung. Da sage ich dem Ding einfach: Mach mal das, der erkennt alles, weiss wo klicken, alles einwandfrei. Super und hat nahtlos funktioniert.

Dani: Und du gehörst zu diesem kleinen Kreis von Beta-Testern. Das musst du mir dann mal erzählen, wie du dazugekommen bist. Aber das verraten wir jetzt nicht.

Erich: Ja gut, ich kann das sagen. Da sage ich auch Dankeschön. Das war über K-Impact, über einen Verband, wo jemand geschrieben hat, ich habe einen Zugang und noch zusätzliche Zugangscodes. Und ich habe dann geschrieben und habe dann so einen Code bekommen.

Dani: Also, danke vielmals an dieser Stelle. Da sprechen wir gerne einen Credit aus. Jetzt soll OpenAI ja auch einen eigenen Browser planen. Was hat das auf sich? Hast du da noch mehr Informationen dazu?

Erich: Ja, da gibt es einen Reuters-Bericht, der nennt, dass in den nächsten Wochen OpenAI auch ein Browser veröffentlichen wird. Ich gehe davon aus, dass dieser eine ähnliche Funktionalität hat, wie der Comet-Browser. Ich hatte schon mal so etwas, der Browser heisst «DIA». Momentan schiessen Browser aus dem Boden mit KI-Funktionalität. Ich hatte das schon mal. DIA konnte die Seiten zwar zusammenfassen, aber war nicht agentic, sprich konnte die Seiten nicht steuern sondern nur den Text lesen und damit etwas machen.

Dani: Mir kommt es ein wenig vor wie vor etwa 25 Jahren, als Netscape Navigator und der Internet Explorer kamen und wie sie alle heissen. Es geht jetzt wieder von vorne los. Es könnte auch gefährlich werden für den Hauptbrowser oder den meist genutzten Browser von Google, Chrome. Was sind zusammengefasst die Hauptfunktionen des Perplexity Browsers?

Erich: Es sieht so aus, als ob wir in die richtige Richtung gehen, mit allem was momentan im Browser aufpoppt mit KI-Funktionalität. Wir haben eine Suchliste auf der Seite, wo ich Aufgaben reinschreiben kann, die zum Content passen in der Seite oder unabhängig sind. Ich bekomme kontextbezogene Antworten über zum Seiteninhalt, wenn ich mich dort darauf referenziere. Ich kann automatisiert Zusammenfassungen machen von solchen Seiten, sehe ich gerade was dort oben ist. Ich habe komplexe Aufgaben, wie ich es vorhin beschrieben habe, etwas kaufen, Restaurantbuchungen machen, etwas recherchieren, in Auftrag geben und dann führt er das im Browserfenster aus.

Dani: Spannend wird es ja, wir haben in den letzten 10 Jahren alles draufgesetzt mit Captchas und Honeypots und haben alle Bots ausgeschlossen, damit ja nicht irgendwie ein Mail ankommt bei den Leuten, das durch ein automatisch generiertes System ausgelöst wurde. Und jetzt kommt eben Perplexity, wo ja bei deinem Hajk-Beispiel von unserem Kunden hajk.ch – mit tollen Outdoor-Produkten übrigens - wo du automatisch einen Schuh buchen kannst und bist nur bis dahin gekommen, wo du dich eingeloggt oder gestoppt hast.

Hier erwartet man in Zukunft auch einen kompletten Umbau von einem Checkout, damit wir erkennen, ah das ist Perplexity, OpenAI die wir durchlassen müssen und alle Russen und Chinesen blockiert werden.

Erich: Wir haben ja schon darüber gesprochen, dass Google daran ist, direkt in der Suche etwas einzubauen. Dort sieht es aber aktuell aus, dass es über ein Interface läuft.

Wenn ich den Artikel in Warenkorb lege, dann kommuniziert Google mit dem Online-Shop und legt den Artikel im Online-Shop in Warenkorbe. Und macht dann den Checkout beim Shop.

Dani: Und nicht wie bei Perplexity.

Erich: Nicht wo der Browser das alles bedient, sondern das läuft dann wirklich via Schnittstellen mit Perplexity?

Dani: Sehe ich dann, wie die Maus herumfährt bei Perplexity.

Erich: Nein, das siehst du nicht. Aber es gibt coole Kommentare auf der rechten Seite. Du siehst was er überlegt: habe jetzt gesucht, habe nichts gefunden. Du siehst, welche Schritte er selber macht.

Dani: Wo sind die Sicherheitsbedenken? Das wird ja Tür und Tore öffnen für viele Probleme, die auf uns zukommen.

Erich: Ja, beide haben gesagt, dass sie entsprechende Massnahmen getroffen haben, insbesondere für Prompt Injections. Bei Comet ist das natürlich ein spezieller Fall. Ich gehe davon aus, dass das einer der Gründe ist, warum OpenAI mit dem Chat GPT-Agent das so realisiert hat und noch nicht mit dem Browser kommt, aus Sicherheitsgründen. Denn Comet kann natürlich auch alles andere mitlesen, was ich surfe und mache. Beide hatten aber eine Massnahme getroffen. Damit keine Prompt Injections gemacht werden können. Und es nicht missbraucht werden

Dani: Google liest auch mit. Von dem her liest einfach jemand anderen mit.

Erich: Ja, am Schluss liest immer jemand mit.

Dani: Wir haben verschiedene Links für euch in unserer Webseite. In der Show-Note sind Informationen zu den zwei verschiedenen Arten von Browsern und Agents. Schaut euch das an. Leider haben wir keine Codes mehr für die Beta von Perplexity.

Damit haben wir unsere News für heute abgeschlossen und widmen uns jetzt unserem Hauptthema: MCP in TYPO3. Hast du schon mal etwas von diesem Model Context Protocol gehört? Wie sieht das aus?

Erich: Ja, das ist etwas, das extrem viel Potenzial hat, insbesondere bei täglichen wiederkehrenden Aufgaben, die man macht oder bei der Bedienung von Applikationen. Das entlastet vor allem im CMS-Bereich, den wir noch spezifisch anschauen. Redakteure natürlich, dass gerade die Redakteure, die nebendran noch andere Aufgaben haben und sich nicht nur die Webseite kümmern, sondern das ab und zu mal machen, was die Bedienung stark vereinfacht.

Dani: Ja, das machen eigentlich alle IT-Leiter oder CMOs. Die haben nebenan immer noch ganz viel zu tun. Und die Webseite muss immer noch so abends zwischen 5 und 7 Uhr passieren.

Für die ist das sicher etwas, weil sie immer auf der Suche sind nach effizienter Arbeit. Und da ist es natürlich KI sinnvoll, wenn man es am richtigen Ort einsetzt oder bestehende Systeme integrieren kann. Die MCP-Lösung von uns ist natürlich dann dort sehr perfekt. Vielleicht würdest du uns noch kurz erklären, was Model Context Protocol überhaupt ist, um zu verstehen, wie wir mit TYPO3 den CMOs und IT-Leitern helfen können.

Erich: Das Model-Kontext-Protokoll ist ein standardisiertes Protokoll, also eine Schnittstelle, wie auf Applikationen zugreifen werden kann. Und das regelt Kommunikation zwischen KI-Assistenten unter den Applikationen.

Zwischen KI und einer Anwendung. Die KI kann dann kontextbezogen Aufgaben an die Anwendung schicken - an die Applikation - und bekommt dann die Antwort zurück, wenn das erledigt ist, was gemacht werden konnte.

Dani: MCP ist auf eine Art vereinfacht erklärt, eine Brücke zwischen der künstlichen Intelligenz und deinen Daten.

Erich: Nicht nur Daten, sondern auch zwischen der Applikationslogik. Man kann sich das im Detail so vorstellen: Ich gebe ein, ich möchte, wie ich das Beispiel mit dem COMET Browser vorher gesagt habe, das direkt im Browser gemacht hat, kann ich KI sagen, gehe ins TYPO3 und ändere dort den Titel von einer Seite. Dann hat KI - hintendran verschiedene MCP-Server, KI ist der Client und ich habe verschiedene MCP-Server - und KI geht und dort fragen: Hey, erzähl mal, was kannst du? Dann kommt die Antwort zurück. Basierend darauf weiss KI dann, dass es eine Funktion gibt, die suchen kann. Dann gibt es dort eine Funktion, die den Titel editieren kann. Die KI macht das alles selbstständig. Das ist nicht mehr wie heute, wo ich eine Schnittstelle habe und muss verstehen, was die Anfrage ist und was die Antwort ist, die zurückkommt. Und welche Daten muss ich schicken und welche kommen zurück. Sondern die KI fragt das selber ab, bekommt die Antwort, was das Ding machen kann und gibt das dann in Auftrag und lässt das dort ausführen. Das ist etwa so, wie das MCP funktioniert.

Dani: Klingt in dieser Erklärung extrem mächtig. Es klingt aber auch, dass es das sehr vereinfacht, weil die Logik ja hintendran die komplexen Ketten verbindet. Was wäre ein typischer Anwendungsfall von diesem Modul, das wir hier in TYPO3 gebaut haben? Wie würde man das nutzen? Wie denken wir, sollte man das nutzen?

Erich: Ein Beispiel wäre, was wir machen können, ich kann KI sagen, optimiere alle Meta-Descriptions von allen Seiten, die in einem bestimmten Seitenbaum drin sind. KI wird dann selbst auswerten, was der Inhalt der Seite ist, schreibt die Meta-Description, speichert das ab, geht zur nächsten Seite und macht das noch dort und arbeitet sich so durch.

Ohne dass ich wissen muss: ich muss jetzt hier auf "editieren" klicken im Backend, dann muss ich die Meta-Description schreiben, reinschreiben, speichern. Die nächste Seite aufmachen etc. Ich kann das KI in einem Auftrag mitteilen und die führt das dann so aus.

Dani: Und ich kann es kontrollieren und entscheiden, was ich noch editieren will.

Erich: Genau. Je nachdem wie das gebaut ist, kann ich dort Schwellen einbauen, die den ersten Vorschlag zeigen und dann sage ich, ja ist gut oder nicht gut, schreibe nochmal neu. Das kann man so dort umsetzen, ohne dass es programmiert ist. Sondern einfach indem ich das KI erklären kann und sie führt das dann aus.

Dani: Es ist extrem einfach, eine grosse Zeitersparnis. Wir haben ja schon einmal ein KI- oder ein AI-Tool für die TYPO3 vor MCP entwickelt, das auch schon damit umgehen konnte, wo man vorgefertigte Prompte hinterlegt hat, wo ich meine Tonalität in der Schreibart und Weise schon hinterlegt habe. Mit MCP können wir das natürlich nochmals toppen und steigern durch die repetitive Arbeit.

Eben wie du sagst, geben wir alle leeren Title Tags aus und füllen dort mal etwas ein mit meiner Tonalität, wo ich normalerweise meine Title Tags generiere. Ich würde mich an dieser Stelle noch interessieren, wie wir umgehen, wenn wir eine TYPO3 Seiten haben mit mehreren Sprachen. Ist das dann auch kein Problem?

Erich: Was ich vielleicht sagen muss: Das MCP kann das nicht einfach out of the box. Das ist nicht magic und funktioniert. Sondern hintendran muss das auch entsprechend konfiguriert und entwickelt werden, damit dass MCP diese Funktionen zur Verfügung stellt und das dann auch gemacht werden kann. Ein Beispiel wäre das Übersetzungsmanagement. Das ist auch ein Paradebeispiel, wo wir DeepL als Dienst ansprechen über MCP, das so konfiguriert ist, dass dort die Übersetzungen eingeholt werden.

Dani: Also ein Drehscheibensystem. Wie funktioniert die Integration im Detail bei uns?

Erich: Aufgrund der Konfiguration wissen wir, welche Felder als relevant sind und man kann sie übersetzen. Wir können dort auch Zielsprache auswählen und der AI-Assistent sendet das in diesem Beispiel an die DeepL und die Übersetzung kommt zurück und führt das dann nachher aus. Und der Vorteil ist, dass die Formatierungen und Links erhalten bleiben.

Dani: Das heisst, in Zukunft definiert der Redakteur sein Setting, woran er arbeiten möchte und übergibt den Auftrag der KI-Assistenz. Und diese arbeitet dann mit MCP aus und kann dann die abgearbeiteten Schritte quittieren. In dieser Zeit kann der IT- oder Marketingleiter noch schnell ein paar Telefone machen oder sonstige Jobs erledigen. Jetzt nimmt es mich natürlich wunder, wie sieht das mit SEO-Optimierung aus? Du hast vorhin schon gesagt, Title Tag, Description Tag, auch kein Problem.

Erich: Ja, das geht mit den Fällen natürlich gleich. Ich habe dort auch Alt-Texte für Bilder ausfüllen. Das ist auch so ein Klassiker, wenn man Webseiten anschaut. Die sind meistens nicht ausgefüllt.

Dort vergibt man sich etwas bei der Bildoptimierung, weil gerade in Shops - als Beispiel - gehen viele Leute über Bildersuche suchen. Und verwenden die Treffen, die wir dort haben, als Produktliste, um das Produkt auszuwählen. Wir können Alt-Texte für Bilder, Überschriften, Slack (das sind die Namen der Seiten), die in der URL erscheinen. Das kann KI alles analysieren, den Kontext anschauen und entsprechend abfüllen. Aufgrund dessen haben wir konsistente Texte mit konsistenten Keywords, die darauf passen.

Dani: Wir haben uns für eine geschlossene Client-Server-Architektur bei unserem Modul entschieden, das wir für TYPO3 entwickelt haben. Kannst du vielleicht auch noch sagen, warum wir das gemacht haben? Was ist die technische Umsetzung? Was sind die Gedanken dahinter?

Erich: Die Gründe warum wir das so gemacht haben ist die Sicherheits-perspektive. Wir möchten natürlich nicht, dass jemand mit einem Chat-GPT-Client auf unser Backend zugreift. Deshalb haben wir das im Backend als Client-Maske eingebaut und ich kann dort den Prompt eingeben. Das geht nicht über Frontend, Client-Applikationen oder irgendeinen KI-Assistenten. Das ist bei uns im Backend eingebaut. Hiermit, weil der Client-Server bei uns in unserer Umgebung miteinander kommuniziert, ist dann Datenübertragung sicher und die Daten gehen nicht nach draussen. Das war der Hauptgrund, warum wir das so gelöst haben.

Dani: Das hat natürlich auch damit zu tun, weil sehr viele unserer Kunden auch Redaktionsmitglieder haben. Du hast dort schon viele User, die dort zugreifen und kannst dann eigentlich mit einem Kanal alle bedienen in diesem geschlossenen System. Heisst das jetzt auch, dass das ein extremer Sicherheitsvorteil für unsere Kunden ist, dass das so architektonisch gelöst worden ist.

Erich: Ja, nicht wie ich es vorhin gesagt habe, nur mit der Kommunikation, sondern wir können natürlich Berechtigungen, die im Backend definiert sind - gerade die Uni St. Gallen als Beispiel - wo der Content von den Instituten separat gepflegt wird und die Leute keinen Zugriff auf den anderen Content haben. Diese Berechtigung können wir dann auch übernehmen. Das MCP kann dann nicht auf Sachen zugreifen, auf die der User keine Berechtigung hat.

Dani: Wir können alles integrieren, Tokenlösungen usw. Ist aber ein anderer Weg als andere MCP-Lösungen, die im Markt erscheinen. Ist das korrekt? Wir machen hier ein wenig restriktiver zu für unsere Kunden? MCP wäre ja offener.

Erich: Ja, MCP ist normalerweise offen. Ich kann einen Client nehmen, einen MCP-Server verbinden. Da gibt es ganze Datenbanken und Webseiten, Kataloge, die in MCP-Servern aufgelistet sind. Bei uns ist das restriktiv, ist dediziert für das, was genutzt werden kann. Die anderen Frameworks sind meist generisch und offen.

Dani: Fassen wir doch nochmals zusammen, was der konkrete Lösungsbringer ist, dass MCP für das Content Management von Morgen.

Erich: Ja. Ich kann die Bedienung im Backend vereinfachen. Ich habe darüber Aufgaben, die repetitiv oder komplex sind, die mehrere Schritte sind, kann ich vereinfachen und die Redakteure können das in ihrer gewohnten Umgebung, mit KI-Funktionalität nutzen und viel Zeit sparen.

Dani: Es ist sehr beeindruckend, wie das Model Contect Protocol, eigentlich das ganze Content-Management revolutioniert. Ich bin gespannt, wie das technologisch weitergeht mit dem MCP. Wir sind auch ganz frisch dran und sehen eine grosse Chance. Die Technologie wird sich rasant entwickeln.

Erich: Ja... Da gibt es schon wilde Sachen, die ich schon gesehen habe (nicht funktionsfähig). Aber Leute, die geschrieben haben, was sie so gemacht haben und andere darauf geschaut haben, die etwas davon verstehen mit der Aussage: es funktioniert!

Aber bei uns jetzt ist vor allem die Verbindung des strukturierten Content-Managements mit moderner KI, das gibt für Unternehmen und Redakteure komplett neue Möglichkeiten. Was wichtig ist, wenn man zusammenfasst, was wir vorhin gesagt haben, sind die richtigen Sicherheitsmassnahmen, die man treffen muss, die Sicherheitskonzepte, die dahinter sind. Bei uns ist das Ganze in einer kostengünstigen Open-Source-Lösung integriert und nicht in einer proprietären Umgebung, die noch Lizenzkosten kostet, wenn man noch KI dranhängt.

Dani: Wenn ihr daran interessiert seid und mehr darüber erfahren wollt, dann ist es jetzt höchste Zeit, mit uns in Kontakt zu treten. Hier unten ist auch ein Link auf unsere Agenda, damit ihr mit uns einen Demo-Termin für das MCP vereinbaren könnt, um euch selbst auch von Zeit- und Kostenersparnis zu überzeugen. Und eben auch von dem ganzen Content-Redaktions-Arbeitserleichterungs-System, über das wir hier berichten. Ich finde, es ist extrem revolutionierend, auch wenn wir vorher auch in der News schon darüber gesprochen, dass KI-Texte analysiert werden. Aber wenn ich mit meinem Content mit MCP unterstützt arbeiten kann, dann spare ich extrem Zeit. Lasst es euch nicht entgehen und nehmt mit uns Kontakt auf, um das Ganze live zu sehen. Vielleicht machen wir auch noch ein Video dazu.

Erich: Bisschen technisch und KI zur Abwechslung, aber extrem wichtig, ein Aufwärtstrend. Das Thema wird definitiv kommen.

Dani: Jetzt haben wir über Technik, Entwickeln und Produzieren von Inhalten gesprochen. Jetzt gehen wir wieder einen Schritt zurück.

Reden wir mal wieder über SEO. There is one more thing: Wir haben noch ein Tool am Start, das eben, wenn produziert und erarbeitet ist, dann muss man auch wieder analysieren, um sich zu verbessern. Was haben wir heute bei «There is one more thing» für ein Tool am Start: «SEO Gets» heisst das. Was kann das?

Erich: Das verlinken wir auch. «SEO Gets» ist mir auch diese Woche über den Weg gelaufen. Das ist ein Dashboard, welches die Daten aus der Google Sheets Konsole besser aufbereitet. Und mir nachher mit Visualisierungen auch bildlich dargestellt, muss ich etwas anpassen, optimieren bezüglich SEO. Welche Inhalte performen und welche nicht?

Dani: Wenn ich das so höre, gibt es spezielle Content-Funktionen, die das unterstützen.

Erich: Das Tool hat zwei Themen, in denen ich Content und Keywords gruppieren kann. Das eine heisst Content Groups.

Dort kann ich Seiten zusammenfassen, die zu einem Thema sind. Wenn ich in eine Search-Konsole reingehe, ich habe einen Online-Shop und habe Produkte aus der Kategorie Jacke. Dann habe ich jedes einzelne Produkt, das zu der Kategorie Jacke gehört, zwar in der Search-Konsole, aber ob übergeordnete Jacke besser oder schlechter performen, sehe ich nicht. Über die Content Groups in diesem Tool kann ich die URLs zusammenfassen und sehe dann, dass alle Seiten, die zu Jacke sind, besser performen. Das Gleiche kann ich auch mit Keywords machen. Das sind sogenannte Topic Clusters, sagen die da drinnen. Ich kann auch auf Keyword basiert Inhalte zusammenfassen. Und kann dann auf einem Topic eine Auswertung machen.

Einmal Seiten, einmal Keywords basiert, gruppiert anschauen. Wie geht das ganze Thema rauf oder runter? Wie verhält sich das? Impressionsclicks usw. die ich in der Search-Konsole sehe. Dann gibt es noch ein paar Tools, bei denen wir Optimierungsvorschläge machen. Das eine ist, welche Seite performt über die Seite hinweg gut und welche nicht. Was sollte ich somit optimieren? Ich habe eine Monatsansicht und sehe, ob die immer gut sind bezüglich Impressions oder Klicks über längere Zeit. Und sehe, welche ich dort anlegen muss. Dann sehe ich kannibalisierende Keywords. Das ist auch ganz spannend. Auch alles aus den Search-Konsolen.

Keywords, die mit mehreren Seiten ranken. Wenn ich ein Keyword habe und als Treffer in der Google Trefferliste drei Seiten anzeigen werden, kann das sein, dass die sich gegenseitig Traffic abnehmen. Dann kann ich die drei Seiten auf das Keyword optimieren. Zwei probiere ich natürlich herunterzuranken und einer mehr Gewicht zu geben.

Keywords, die nicht auf der ersten Seite angezeigt werden. Ich kann dort sagen, zeige mir alle Keywords von Position 10 bis Position 20. Dann zeigt es mir die Keywords an mit den Seiten, die dazugehören. Dann kann ich dort auch Einfluss nehmen, weil das sind ja die am meisten Potenzial haben um nach vorne zu kommen, damit ich mehr Klicks bekomme. Und last but not least gibt es einen sogenannten Click-Through-Rate Benchmark.

Welche Keywords performen besser, welche schlechter, basierend auf der Ranking-Funktion. Das wird angeschaut. Im Durchschnitt wissen die, ein Keyword auf der Position hat eine Click-Through-Rate von 27%. Dein Keyword dort auf dieser Position hat 30%, ist besser, oder hat 10%, rankt schlechter im Benchmark zu anderen Keywords.

Dani: Klingt gerade so, als ob das Tool zur richtigen Zeit kommt, weil das würde ja jetzt eigentlich für den Core-Update der letzten Wochen sehr hilfreich sein, oder?

Erich: Genau. Da drin würde ich sehen, welche Keywords mehr Sichtbarkeit haben. Und könnte dann noch reagieren und das optimieren.

Dani: Die letzte Frage. Money… Money…Money. Was kostet das?

Erich: Das Tool ist gratis. Das kostet nichts. Das hat ein SEO-Experte gemacht, um sich zu promoten, wenn ich das richtig verstanden habe.

Er bezieht Daten über das API der Google Sheets Console. Was ich machen muss, ich logge mich mit meinem Google-Konto ein, muss sagen, dass das Tool Zugriff darauf hat und dann kommt das Dashboard und ich habe sofort Zugriff auf die ganzen Daten und sehe die dort drinnen.

Was auch ein riesiger Vorteil ist: In der Search-Konsole werden maximal 1000 Ziele angezeigt. Das Tool kann bis zu 50'000 Ziele auswerten und diese im Dashboard darstellen. Das heisst, ich habe viel mehr Informationen und Daten zur Verfügung, mit denen ich arbeiten kann.  

Dani: Er auch (lacht)!

Erich: Nein, er stellt nur die Applikationen zur Verfügung. Das ist wie Looker-Studio, wo du den Rahmen hast, wo du sagen kannst, ich möchte gerne diese Dimensionen und Metriken einziehen. Die Daten, die noch reinkommen, sieht er nicht. Das ist nur die Applikation, die das zieht, auswertet und dir darstellt.

Dani: Sonst hätte ich gedacht, er hätte einen grossen Benefit, wenn er all diese Daten zusammenzieht. Cool müssen wir es ausprobieren. Vor allem alle müssen es ausprobieren, die natürlich auch im Ranking gestrauchelt sind mit dem Google Update, das wir am Anfang in den News hatten.

Und damit sind wir eigentlich schon wieder am Schluss von heute. Wir würden sagen, bis zum nächsten Mal gehen wir wieder zum Coiffeur. Mein Bart ist schon recht lang.

Erich: Ja, das sollte reichen bis zum nächsten Mal.

Dani: Dann hat auch Erich wieder die Haare schön!

Also Teilen, Liken, Kommentieren. Helft uns, seid dabei, auch beim nächsten Blog. Tschüss!

Diesen Artikel teilen

Gefällt Ihnen unser Artikel? Teilen Sie ihn, um ihn noch weiteren Personen zugänglich zu machen. Vielen Dank!

Passende Artikel

Progressive Web Apps (PWA) – Websites wie Apps nutzen
E-Commerce
Corporate Websites
Web-Applikation
Mobile

Progressive Web Apps (PWA) – Websites wie Apps nutzen

PWAs bringen das Beste aus beiden Welten zusammen: eine Website, die sich wie eine App anfühlt. Installieren, öffnen, Benachrichtigungen erhalten – alles ohne App-Store-Umweg. So entsteht ein schneller, kosteneffizienter Weg von der Idee zur Nutzung.
40:16min
CMS-Evaluation mit KI-Assistenten richtig durchgeführt
Online Marketing
Technology Trends
Podcast & Videoblog
E-Commerce
Web-Applikation

CMS-Evaluation mit KI-Assistenten richtig durchgeführt

Episode #11 – Dani und Erich sprechen über die neuesten Zahlen zur KI-Nutzung in der Schweiz, die Diskussion um einen möglichen KI-Winter und wie Unternehmen KI bei der Evaluation von CMS-Systemen einsetzen. Zum Schluss stellen sie mit dem LinkedIn Post Text Formater ein praktisches Tool für Social-Media-Posts vor.
Corporate Websites
Online Marketing
TYPO3

Corporate Websites als Recruiting-Tool

Der Wettbewerb um qualifizierte Fachkräfte ist intensiver denn je. Unternehmen stehen nicht nur im Konkurrenzkampf mit direkten Mitbewerbern, sondern auch mit Branchenfremden, die um dieselben Talente werben. Während Social Media und Jobportale wichtige Rollen im Recruiting spielen, wird eine zentrale Plattform oft unterschätzt: die eigene Corporate Website. Richtig genutzt, kann sie zu einem der stärksten Werkzeuge im Kampf um Talente werden.