Zum Hauptinhalt springen
Projekt starten

aiarchitectforweb@gmail.com · Zürich, Schweiz

MethodikToken Distribution · Definition

Token Distribution 25/50/25: Content-Struktur nach Gübür

Die 25/50/25 Regel für optimale Content-Struktur: Erste 25% Definition, mittlere 50% Context und Tiefe, letzte 25% Information und CTAs. BM25 und TF-IDF Relevanz.

23. März 202610 Minuten1’800 Wörter

Definition: Was ist Token Distribution?

Token Distribution beschreibt die strategische Verteilung von Inhalten innerhalb eines Dokuments, um die Relevanz für Suchmaschinen zu maximieren. Die 25/50/25 Regel von Koray Tuğberk GÜBÜR definiert die optimale Gewichtung:
  • Erste 25%: Definition — Die Central Entity einführen und definieren
  • Mittlere 50%: Context — Tiefe, Hauptargumente, Beweisführung
  • Letzte 25%: Information — Zusammenfassung, CTAs, weiterführende Links

Diese Verteilung ist nicht willkürlich. Sie spiegelt wider, wie Suchmaschinen Inhalte gewichten: Die Anfangs- und Endpositionen eines Dokuments erhalten besondere Aufmerksamkeit, während der Mittelteil die semantische Tiefe liefert, die Topical Authority aufbaut.

Token vs. Wort

Im Kontext von NLP und Suchmaschinen ist ein Token nicht identisch mit einem Wort:

  • "Suchmaschinenoptimierung" = 1 Wort, aber mehrere Tokens
  • "AI" = 1 Wort, 1 Token
  • "erdinc.ai" = 1 Wort, mehrere Tokens

Die Token Distribution bezieht sich auf die semantische Gewichtung der Tokens über die Länge des Dokuments — nicht auf die blosse Wortzahl.

Context: Warum die 25/50/25 Verteilung optimal ist

Im Kontext der Informationsverarbeitung durch Suchmaschinen gibt es zwei Schlüsselalgorithmen, die die Token Distribution direkt beeinflussen: BM25 und TF-IDF.

BM25 und Dokumentrelevanz

BM25 (Best Matching 25) ist der Ranking-Algorithmus, den Suchmaschinen für die initiale Relevanzbewertung verwenden:

BM25(D, Q) = Σ IDF(qᵢ) × (f(qᵢ, D) × (k₁ + 1)) / (f(qᵢ, D) + k₁ × (1 - b + b × |D|/avgdl))

Vereinfacht: BM25 bewertet, wie relevant ein Dokument D für eine Query Q ist, basierend auf:

  • Term Frequency (f): Wie oft kommt der Suchbegriff vor?
  • Inverse Document Frequency (IDF): Wie selten ist der Begriff in der Gesamtsammlung?
  • Document Length (|D|/avgdl): Wie lang ist das Dokument im Vergleich zum Durchschnitt?

Die Token Distribution beeinflusst BM25, weil die Position der Tokens im Dokument die Relevanz-Signale verändert. Begriffe am Anfang und Ende eines Dokuments werden stärker gewichtet als Begriffe in der Mitte.

TF-IDF und Token-Gewichtung

TF-IDF (Term Frequency – Inverse Document Frequency) berechnet das Gewicht eines Tokens:

TF-IDF(t, d, D) = TF(t, d) × IDF(t, D)

Für die Token Distribution bedeutet das:

  • Hohe TF-IDF Tokens (wichtige, seltene Begriffe) sollten in den ersten 25% erscheinen
  • Moderate TF-IDF Tokens (Kontext-Begriffe) dominieren die mittleren 50%
  • Zusammenfassende Tokens (Wiederholung der wichtigsten Begriffe) stehen in den letzten 25%

Warum die Anfangsposition so wichtig ist

Google gewichtet die ersten 100-200 Wörter eines Dokuments überdurchschnittlich. Das hat mehrere Gründe:

1. Crawl-Budget: Google liest nicht immer das gesamte Dokument

2. Snippet-Extraktion: Featured Snippets werden häufig aus dem Anfang extrahiert

3. User Behavior: Nutzer entscheiden in den ersten Sekunden, ob sie weiterlesen

4. Heading Vector: Die H1 und der erste Absatz setzen den Kontext

Information: Die 25/50/25 Regel in der Praxis

Die ersten 25%: Definition

Die ersten 25% eines Artikels haben eine klare Aufgabe: Die Central Entity definieren und den Leser (sowie die Suchmaschine) orientieren.

Checkliste für die ersten 25%:
  • Die Central Entity wird im ersten Satz genannt und fett markiert
  • Eine klare, präzise Definition wird geliefert
  • Der Autor positioniert sich als Experte (E-E-A-T Signal)
  • Die wichtigsten Keywords erscheinen natürlich
  • Der Leser weiss nach den ersten 25%, worum es geht

Beispiel (3'000-Wort-Artikel, erste 750 Wörter):
H1: "Topical Authority: Die komplette Anleitung"

Absatz 1: Definition der Central Entity

"Topical Authority ist eine semantische SEO-Methodologie..."

Absatz 2: Warum das Thema relevant ist

"Im modernen SEO-Paradigma..."

Absatz 3: Was der Leser lernen wird

"In diesem Artikel erfahren Sie..."

H2: "Was ist Topical Authority?"

Absatz 4-6: Detaillierte Definition mit Formel

Die mittleren 50%: Context

Die mittleren 50% sind der Kern des Artikels. Hier liefern Sie die Tiefe, die Topical Authority aufbaut.

Checkliste für die mittleren 50%:
  • Hauptargumente werden mit Evidenz untermauert
  • Tabellen, Listen und Code-Beispiele lockern den Text auf
  • Interne Links zu verwandten Artikeln erscheinen (Contextual Bridges)
  • Jede H2-Sektion löst ihr Heading-Vektor-Versprechen ein
  • Semantic Triples werden natürlich eingebaut

Beispiel (3'000-Wort-Artikel, mittlere 1'500 Wörter):
H2: "Die Komponenten der Topical Authority"

H3: "Topical Coverage" → 300 Wörter, Tabelle

H3: "Historical Data" → 300 Wörter, Beispiele

H3: "Cost of Retrieval" → 300 Wörter, technische Details

H2: "Implementierung in 5 Schritten"

H3: "Schritt 1: Entity-Analyse" → 150 Wörter

H3: "Schritt 2: Topical Map" → 150 Wörter

H3: "Schritt 3: Content-Planung" → 150 Wörter

H3: "Schritt 4: Interne Verlinkung" → 150 Wörter

Die letzten 25%: Information

Die letzten 25% schliessen den Kreis. Sie fassen die wichtigsten Punkte zusammen, bieten Handlungsanweisungen und leiten den Leser weiter.

Checkliste für die letzten 25%:
  • Die Central Entity wird nochmals erwähnt (Reinforcement)
  • Eine klare Zusammenfassung der Key Takeaways
  • Call-to-Actions (CTAs) für die nächsten Schritte
  • Weiterführende interne Links zu verwandten Artikeln
  • FAQ-Sektion (optional, aber wertvoll für Featured Snippets)

Beispiel (3'000-Wort-Artikel, letzte 750 Wörter):
H2: "Messung der Topical Authority"

→ Metriken, Tools, KPIs

H2: "Häufige Fehler vermeiden"

→ Anti-Patterns, Warnungen

H2: "Fazit"

→ Key Takeaways, CTA

H2: "FAQ: Topical Authority"

→ 3-5 häufige Fragen mit kurzen Antworten

Praktisches Beispiel: 3'000-Wort-Artikel strukturieren

Nehmen wir einen konkreten Artikel: "AI Automation für Schweizer KMU" mit 3'000 Wörtern.

Erste 25% (750 Wörter):
SektionWörterZweck
H1 + Intro200Central Entity definieren
H2: "Was ist AI Automation?"350Definition vertiefen
H2: "Warum KMU profitieren"200Relevanz für Zielgruppe
Mittlere 50% (1'500 Wörter):
SektionWörterZweck
H2: "5 AI-Automation-Strategien"500Hauptargumente
H2: "Tools im Vergleich"500Evidenz und Detail
H2: "Implementierung"500Praktische Anleitung
Letzte 25% (750 Wörter):
SektionWörterZweck
H2: "ROI berechnen"250Quantifizierung
H2: "Fazit und nächste Schritte"200Zusammenfassung + CTA
H2: "FAQ"300Featured-Snippet-Potenzial

Token Distribution und DCI-Methodik

Die 25/50/25 Regel ist eng mit der DCI-Methodik (Definition → Context → Information) verwandt:

DCI-PhaseToken DistributionAnteilFunktion
DefinitionErste 25%25%Entity einführen
ContextMittlere 50%50%Tiefe und Beweisführung
InformationLetzte 25%25%Synthese und Handlung

Die DCI-Methodik gibt die inhaltliche Richtung vor. Die Token Distribution gibt die quantitative Gewichtung vor. Zusammen bilden sie das Fundament für Content, der sowohl für Leser als auch für Suchmaschinen optimal strukturiert ist.

Fortgeschrittene Techniken

Token Density Mapping

Für fortgeschrittene Optimierung können Sie die Token-Dichte pro Sektion messen:

function analyzeTokenDensity(text: string, sections: string[]) {

const totalTokens = text.split(/\s+/).length;

return sections.map((section, i) => ({

section: Section ${i + 1},

tokens: section.split(/\s+/).length,

percentage: (section.split(/\s+/).length / totalTokens * 100).toFixed(1) + '%',

}));

}

Entity-Token-Verteilung

Die Central Entity sollte über das gesamte Dokument verteilt sein, aber mit unterschiedlicher Dichte:

  • Erste 25%: Höchste Dichte (Entity in fast jedem Absatz)
  • Mittlere 50%: Moderate Dichte (Entity in jedem 2.-3. Absatz)
  • Letzte 25%: Reinforcement (Entity im Fazit und FAQ)

Vermeidung von Keyword-Stuffing

Die Token Distribution ist NICHT Keyword-Stuffing. Der Unterschied:

Keyword-StuffingToken Distribution
Gleicher Begriff 50x wiederholtSemantische Variationen
Unnatürlicher LeseflussNatürliche Sprache
Einzelnes Keyword fokussiertEntity + Attribute Netzwerk
Von Google bestraftVon Google belohnt

Fazit

Die 25/50/25 Token Distribution nach Gübür ist ein Framework, das Content-Struktur messbar und optimierbar macht. Die ersten 25% definieren die Central Entity, die mittleren 50% liefern die Tiefe, und die letzten 25% schliessen den Kreis mit Zusammenfassung und Handlungsanweisungen.

Kombiniert mit der DCI-Methodik und einer durchdachten Heading-Hierarchie entsteht Content, der die Anforderungen von BM25, TF-IDF und Googles semantischer Verarbeitung gleichermassen erfüllt.

Praxistipp: Messen Sie bei Ihrem nächsten Artikel die Wortverteilung. Sind die ersten 25% fokussiert auf die Definition? Liefern die mittleren 50% echte Tiefe? Schliessen die letzten 25% den Kreis? Wenn ja, haben Sie die Token Distribution gemeistert.
Token Distribution25/50/25Content-StrukturGübürBM25TF-IDFSemantic SEODCI Methodik
Özden Erdinc — Artikel ueber Token Distribution

Özden Erdinc

Autor

AI Architect for the Semantic Web

Spezialisiert auf Topical Authority, Semantic SEO und KI-Agenten-Entwicklung. Hilft Schweizer Unternehmen, ihre digitale Präsenz mit semantisch optimierten Web-Lösungen zu transformieren.

Weitere Artikel