SEO (Suchmaschinenoptimierung) ist ein riesiges Geschäft, und viele der gängigen SEO-Praktiken, die online kursieren, entpuppen sich oft als Aberglaube. Ein zunehmend populärer Ansatz, der auf Large Language Models (LLMs) abzielt, das sogenannte "Content Chunking", könnte ebenfalls in diese Kategorie fallen. Im neuesten Podcast von Google's "Search Off the Record" haben John Mueller und Danny Sullivan klargestellt, dass das Aufteilen von Inhalten in kleine, "mundgerechte" Häppchen für LLMs wie Gemini keine gute Idee ist. Wahrscheinlich sind Sie bereits auf Webseiten gestoßen, die Content Chunking betreiben, und haben sich gefragt, was das soll. Die Antwort: Dieser Inhalt ist nicht für Sie, den menschlichen Leser, gemacht. Die Idee hinter Content Chunking ist, dass Informationen in kleinere Absätze und Abschnitte unterteilt werden, um die Wahrscheinlichkeit zu erhöhen, dass sie von generativen KI-Bots wie Gemini "aufgenommen" und zitiert werden. Das Ergebnis sind kurze Absätze, manchmal nur ein oder zwei Sätze lang, und viele Zwischenüberschriften, die wie Fragen formatiert sind, die man einem Chatbot stellen würde. Laut Sullivan ist dies jedoch ein Missverständnis. Google verwendet solche Signale nicht, um Inhalte zu bewerten oder zu priorisieren. Die Annahme, dass LLMs "Häppchen-Inhalte" bevorzugen und Google dies bei der Bewertung von Webseiten berücksichtigt, ist schlichtweg falsch. Google konzentriert sich weiterhin auf qualitativ hochwertige, umfassende und für den Nutzer relevante Inhalte. Statt sich also auf Content Chunking zu konzentrieren, sollten Webseitenbetreiber weiterhin Wert auf gut recherchierte Artikel, eine klare Struktur und eine ansprechende Präsentation legen, die den Bedürfnissen der menschlichen Leser entspricht. Nur so kann man langfristig in den Suchergebnissen erfolgreich sein. Die Jagd nach dem nächsten SEO-Trick, der sich als Luftnummer entpuppt, ist reine Zeitverschwendung.