Y1  /  Strategy  /  Working Draft
Vertraulich · Interner Diskussionsstand · April 2026
Positionierungspapier

Der Performance-Hebel, der in der Hand der Brands liegt. Konjunktur, Paid-Inflation und Wettbewerbsdichte sind außerhalb der Kontrolle. Die Produktdaten-Architektur nicht.

Contextual Product Intelligence: Y1s strategische Positionierung im PXM-Markt 2026/27. Mit Pain-Mapping, Wettbewerbsanalyse, Asset-Stack, Service-Architektur, K5-Validierungsfenster und falsifizierbarer PMF-Validierung.

Verfasser Strategy · Y1 Digital AG
Status Diskussionsgrundlage intern
Scope B2C Brands · DACH
Horizont 18 Monate

E-Commerce-Performance unter Druck. Entscheider suchen Hebel an den falschen Stellen.

CMOs und E-Commerce-Leads sehen seit 18 bis 24 Monaten, wie ihre Haupt-KPIs gegen strukturelle Kräfte anrennen. Die Reaktion läuft fast überall nach demselben Muster und übersieht konsistent den Hebel, der noch in der Hand der Brand liegt.

KPI-Druck

ROAS auf PMax und Meta bröckelt trotz stabiler oder wachsender Budgets. Conversion Rates stagnieren oder sinken, besonders auf Drittplattformen. Retourenquoten ziehen an, vor allem über Marktplatz-Akquise. AOV entwickelt sich gegen die Erwartung. Die Zahlen fallen nicht dramatisch, aber sie fallen stetig, und jeder Monat, der so weiterläuft, drückt die E-Commerce-Marge näher an die Schmerzgrenze.

Strukturelle Treiber

Die Ursachen liegen außerhalb der Brand-Kontrolle: konjunkturelle Kaufzurückhaltung, Paid-Inflation bei Google und Meta (CPCs und CPMs steigen seit drei Jahren zweistellig), steigende Wettbewerbsdichte auf allen relevanten Channels, Fragmentierung der Customer Journey über zwölf bis fünfzehn Touchpoints. Keine dieser Kräfte lässt sich durch mehr Budget oder besseres Bidding kompensieren.

Entscheider-Reaktion

Budgets wandern in Kampagnen-Optimierung (neue Agentur, neues Bidding-Setup), in Creative-Produktion (mehr Varianten, schnellerer Output), in Tech-Stack-Erweiterung (CDP, Attribution, noch ein Analytics-Layer). Die Performance-KPIs bewegen sich danach kurzfristig, kehren aber meist auf den Abwärtstrend zurück. Die gemeinsame blinde Stelle: die Qualität und Kontextualisierung der Produktdaten selbst, weil sie traditionell in PIM- und Marketing-Silos liegt, nicht im Performance-Verantwortungsbereich.

Der offene Hebel

Die Produktdaten-Architektur ist der Performance-Hebel, der 2026 noch in der Hand der Brand liegt, und einer der wenigen, der isoliert von Konjunktur, Paid-Pricing und Wettbewerbsdichte wirkt. Kontextspezifisch aufbereitete Produktdaten verbessern das Matching an fast jedem Touchpoint: höhere Conversion auf der PDP, bessere Ad-Relevanz, präziseres Marktplatz-Ranking, niedrigere Retouren durch bessere Fit-Kommunikation. Die Wirkung ist nicht spektakulär pro Touchpoint, aber sie greift überall gleichzeitig und kompoundiert über die Journey.

Arbeitsthese

Der relevanteste Performance-Hebel, der 2026 noch in der Hand der Brand liegt, ist der Wechsel von flacher zu kontextsensitiver Produktdaten-Architektur. Das ist eine Infrastrukturaufgabe, keine Redaktionsaufgabe, und damit eine Aufgabe, die genau zwischen PIM, TMPC und C&C liegt.

Der Infrastrukturwandel durch KI-Agenten und neue Discovery-Protokolle kommt parallel und wird in 12 bis 18 Monaten zum zweiten großen Hebel. Aber er treibt die heutige Budgetentscheidung nicht, weil der Traffic-Verlust noch nicht in jedem Dashboard sichtbar ist. Contextual Product Intelligence adressiert beide Ebenen: den akuten Performance-Druck heute, die KI-Readiness als strategischen Nebeneffekt derselben Datenarchitektur.

Zwei Pains, ein Root Cause.

Unter der Oberfläche unterschiedlicher Symptome liegt dasselbe strukturelle Problem: flache, kontextfreie Produktdaten, die an jedem Touchpoint dieselbe generische Geschichte erzählen.

Pain A · Produktisierbarer Einstieg

Unsichtbarkeit in KI-gestützter Product Discovery

Journey: Discovery → Consideration

Mein Wettbewerber wird von ChatGPT empfohlen, ich nicht, und ich habe keine Ahnung, was er anders macht.

Problem

Brands verlieren Sichtbarkeit in KI-Suche und Agent-basierten Kaufentscheidungen. Der Grund: Produktdaten sind flach und kontextfrei. Ein Agent bekommt reichhaltige Prompts („Laufschuh für Überpronation, Marathon, Asphalt“), findet aber nur generische Attribute („Stabilitätskategorie: moderat“) statt kontextspezifischer Relevanzargumentation.

Die Evidenzlage ist eindeutig: Amazon Rufus läuft mit 300 Mio. aktiven Nutzern, Shopify meldet 15×-YoY-Wachstum bei Orders aus AI-Suchen, 45 % der Konsumenten nutzen KI bereits aktiv in ihrer Buying Journey. Wer heute nicht maschinenlesbar ist, ist in diesen Kanälen unsichtbar.

Mechanik der Lösung

Wenn derselbe Laufschuh unterschiedliche kontextspezifische Attributsets vorhält, für Überpronation, für Knieprobleme, für Trailrunning, jeweils maschinenlesbar, steigt die Wahrscheinlichkeit dramatisch, in relevanten KI-Antworten aufzutauchen. Nicht auf Keywords optimieren und auf Rankings hoffen, sondern dem Agenten so viel kontextspezifische Evidenz liefern, dass der Match zwangsläufig wird.

Kennzahlen zur Messung

  • AI Citation Rate: Häufigkeit der Nennung in KI-Antworten pro definiertem Prompt-Set
  • Share of Agent Recommendations vs. Top-3-Wettbewerber
  • Traffic-Split: klassische Suche vs. KI-Referral vs. direkter Agent-Zugriff

Zahlungsbereitschaft heute

Differenziert. Für produktisierte Assessments (Quick-Scan, Deep-Assessment) ist die Zahlungsbereitschaft hoch, weil der Hype CMO-Aufmerksamkeit und KI-Budgettöpfe aktiviert. Für tiefe Implementierungsprojekte allein unter Pain-A-Flagge ist sie dagegen niedrig, weil die messbare Business-Wirkung fehlt. Genau deshalb funktioniert Pain A als Entry Point, nicht als eigenständiger Wertschöpfungscase.

Pain B · Wertschöpfungs-Core

Sinkende Channel-Performance bei steigendem Invest

Journey: Discovery → Post-Purchase

Unser ROAS auf PMax ist in zwölf Monaten um rund 30 % eingebrochen, und niemand kann es erklären.

Unsere Conversion Rate auf SportScheck ist halb so hoch wie im eigenen Shop, bei identischen Produkten.

Wir haben 15 % Retourenquote auf Zalando, 8 % im eigenen Shop. Selbes Sortiment.

Ehrliche Einordnung

Content-Kontext-Mismatch ist nicht die Hauptursache dieser Entwicklungen. Konjunkturelle Kaufzurückhaltung, Paid-Inflation bei Google und Meta, steigende Wettbewerbsdichte und KI-Traffic-Absorption sind die strukturellen Treiber, und sie liegen alle außerhalb der Kontrolle der Brand.

Genau deshalb ist Content-Context-Fit der Hebel, der zählt. An Konjunktur, Google-Pricing und Wettbewerbsdichte kann niemand etwas ändern. An der eigenen Produktdaten-Architektur schon, und zwar mit messbarem Effekt auf Conversion, ROAS und Retourenquote.

Mechanik

Generischer Content verpasst die Relevanz beim Zielkunden. Der Laufschuh wird als Laufschuh gezeigt, korrekt, aber unspezifisch. Wer bei Überpronation einkauft, findet das Produkt zwar, aber die Argumentation, warum gerade dieser Schuh die richtige Wahl ist, fehlt. Die Ad konvertiert schlechter, die Retailer-PDP überzeugt nicht, der Shopping-Feed verliert gegen spezifischere Wettbewerber. An jedem Touchpoint dasselbe Muster.

Warum das Silo-Problem mitgedacht werden muss

Content liegt bei PIM oder Marketing. Performance liegt bei Performance Marketing oder E-Commerce. Zwischen beiden wird der Zusammenhang selten hergestellt, und genau diese Diagnoselücke ist Y1s Einstiegspunkt.

Kennzahlen zur Messung

  • ROAS-Delta nach Einführung kontextspezifischer Assets (A/B-Test auf Kampagnenebene)
  • Conversion-Rate-Delta zwischen kontextualisiertem und generischem Content
  • Retourenquote nach Akquisekanal. Hypothese: bessere Fit-Kommunikation senkt Fehlkäufe
  • Channel-spezifische Performance-Trends über mindestens 90 Tage

Marktevidenz, Proof Points und offene Lücken.

Der Markt liefert belastbare Zahlen, die sowohl den Performance-Hebel als auch die Agent-Verschiebung stützen. Entscheidend für Y1 ist: die eigene Datenbasis ergänzt externe Studien um eine strukturierte DACH-Perspektive, die kein Wettbewerber hat.

Unsere eigene Primärquelle: die PXM Maturity Study

Y1 betreibt eine proprietäre Studie mit strukturiertem Scoring-Framework. Sie schließt die wesentliche Evidenzlücke für den DACH-Markt und ist das Fundament für Thought Leadership, Lead-Generierung und Service-Delivery gleichermaßen.

800+
B2C-Brands strukturiert analysiert und gescort nach einheitlichem Framework
PXM Maturity Study · Y1 Digital AG
38
Segmente über 9 Verticals, mit vergleichbaren Rankings und Dimensionsprofilen
PXM Maturity Study · Y1
26
Experience Indicators über 6 Dimensionen (D1 Strategy bis D6 Data-Driven PXM)
PXM Maturity Framework · Y1
Owned vs. Retail
Gap pro Brand messbar, über Segmente und Verticals aggregierbar, mit klaren Mustern
PXM Maturity Study · Y1
Strategische Bedeutung

Diese Datenbasis ist kein Nebenprodukt der Beratung, sondern die zentrale Monetarisierungs- und Positionierungsgrundlage. Sie speist drei Anwendungen: den öffentlichen PXI Hub (pxi.y1.studio) als Lead-Gen-Kanal, den kuratierten PXM Explorer als interne Sales- und Delivery-Plattform, sowie zwölf produktisierte Content-Formate für Thought Leadership, Lead-Gen und Sales Enablement.

Externe Marktgröße und Adoption

$3–5 Bio.
Globales agentisches Handelsvolumen bis 2030 (US-B2C allein bis $1 Bio.)
McKinsey QuantumBlack · Oktober 2025
90 %
aller B2B-Einkäufe bis 2028 durch AI-Agenten abgewickelt, $15 Bio. Volumen
Gartner · Oktober 2025
15×
YoY-Wachstum bei Orders aus AI-Suchen über alle Shopify-Merchants seit Januar 2025
Shopify Q4 2025 Earnings · Finkelstein
45 %
der Konsumenten nutzen KI bereits aktiv in ihrer Buying Journey (23 Länder, 18.000 Befragte)
IBM IBV / NRF · Januar 2026
höheres Kundenvertrauen in On-Site-Agenten gegenüber Drittanbieter-Agenten
Bain & Company · November 2025
7 %
globaler Jahresumsatz als Strafrahmen unter EU AI Act, durchsetzbar ab August 2026
EU AI Act · Artikel 99
Einordnung

Diese Zahlen stammen aus Primärquellen führender Analysten und aus Earnings-Calls gelisteter Unternehmen. Sie zeigen, dass Agentic Commerce kein Zukunftsszenario mehr ist, sondern laufend messbaren Umsatz bewegt. Für die Y1-Positionierung entscheidend: Die Adoption ist breit, aber die Reife der Datenbasis auf Brand-Seite liegt deutlich dahinter. Genau diese Lücke ist der Beratungsmarkt.

Performance-Hebel: Hypothesen aus Sekundärevidenz

Für den Pain-B-Case (Contextual Performance) existieren keine branchenweit etablierten Primärzahlen. Die folgenden Größenordnungen sind Orientierungshypothesen, die in Phase-2-Pilotprojekten DACH-spezifisch quantifiziert werden sollen.

+20 %
Conversion-Uplift durch erweiterte PDP-Attribute und Rich Content in Vergleichsstudien
Sekundärquelle · Hypothese zu härten
−30 %
Retourenreduktion bei verbesserter Fit- und Use-Case-Kommunikation (Fashion/Footwear)
Sekundärquelle · kategorienabhängig
~15 %
ROAS-Uplift durch audience-spezifische Asset-Varianten in PMax-Kampagnen
Sekundärquelle · Varianz hoch
2–3×
Engagement auf Retailer-PDPs durch Content-Injection
Anbieter-Daten · zu verifizieren
Transparenzhinweis

Diese Größenordnungen stammen aus Sekundärquellen, Anbieter-Benchmarks und Publikumsstudien. Sie sind keine Y1-Fallzahlen und dienen explizit als Orientierungshypothese. Die Phase-2-Pilotprojekte sollen sie für DACH-Kontext quantifizieren.

Was wir aus eigener Arbeit belastbar wissen

  • PIM-Projekte mit strukturierter Attributvertiefung führen reproduzierbar zu schnellerer Channel-Anbindung und geringeren Content-Operations-Kosten, belegt über mehrere DACH-Projekte der letzten 24 Monate.
  • Brands mit tiefer Attributstruktur haben deutlich niedrigeren Aufwand bei der Anbindung neuer Marktplätze und Feeds. Hebel sichtbar, Quantifizierung möglich.
  • Der Zusammenhang zwischen PIM-Reife und Retailer-PDP-Qualität ist in Y1-Projekten konsistent beobachtbar, die quantitative Wirkung auf Endverbraucher-KPIs ist jedoch bisher nicht systematisch erhoben.

Was bewusst offen bleibt

  • Ein belastbarer Y1-eigener A/B-Test, der den ROAS-Effekt kontextspezifischer vs. generischer Assets für einen DACH-Kunden quantifiziert. Ziel für Phase 2.
  • Eine Messung, wie stark sich AI Citation Rates durch strukturelle Datenanreicherung tatsächlich verbessern. Forschungsfrage, Partner denkbar.
  • Die isolierte Wirkung von Content-Context-Fit bei konstantem Media-Spend. Methodisch anspruchsvoll, aber der Goldstandard für die Pain-B-Argumentation.

Kontexthandling pro Touchpoint.

Kontextualisierte Ausspielung setzt voraus, dass der Kontext bekannt ist. Je nach Touchpoint gibt es dafür unterschiedliche Mechanismen, mit unterschiedlich viel Hebel für die Brand.

Direkter Kontextzugang
TouchpointKontextmechanismusHebel für die BrandStatus
Eigener Shop Session, Suchanfrage, Profil, Referrer Volle Kontrolle: Kontext bekannt, Ausspielung direkt steuerbar ● lösbar
Agent-LayerChatGPT, Perplexity, Google AI Vollständiger User-Prompt: reichster Kontext aller Touchpoints Agent fragt via MCP/Protokoll kontextspezifische Daten ab. Brand liefert oder nicht ● lösbar
Paid Search / PMax Google kennt Suchkontext Kontextspezifische Assets & Feed-Attribute pro Audience-Segment erhöhen Matching-Qualität ● lösbar
Post-PurchaseE-Mail, App, Onboarding CRM/CDP kennt Kaufhistorie PIM-Daten fließen kontextspezifisch in Marketing Automation ● lösbar
Indirekter Kontextzugang
TouchpointKontextmechanismusHebel für die BrandStatus
Retailer-PDPs via Content InjectionLoadbee, DemoUp Cliplister, Syndigo Brand kontrolliert das Widget; Retailer-Umfeld ist bekannt Kontextualisierung pro Retailer-Umfeld; nächste Stufe: dynamische, referrer-sensitive Inhalte. Strategischer Baustein der Y1-Loadbee-Kooperation. ● lösbar, ausbaubar
MarktplätzeAmazon, Zalando, Otto Kein direkter Zugang, aber Plattform-KI wird datenhungriger: Rufus (Amazon) produktiv mit 300 Mio. Nutzern, Walmart Sparky live, OTTO seit März 2026 Reichere, multi-kontextuelle Feeds verbessern algorithmisches Matching; Brands ohne strukturierte Attribute fallen aus Empfehlungen heraus ● wachsend
RetargetingCriteo, RTB Feed-basiert; User-Kontext liegt beim Retargeter Kontextspezifische Feed-Varianten ermöglichen differenziertes Creative-Matching ◐ eingeschränkt
Verbleibende Lücken
TouchpointMechanismusAktueller ZustandStatus
Social CommerceInstagram, TikTok Shop Plattform kennt Kontext, teilt ihn aber nicht Feed-basiert möglich, Attribut-Tiefe limitiert ◐ eingeschränkt
Influencer-Content Kein standardisierter Datenkanal Generische Briefings, keine systematische Kontextualisierung. Innovationsfeld, offen. ○ ungelöst
Zwischenfazit

Die kaufentscheidungsrelevanten Touchpoints sind zu einem überraschend hohen Anteil kontextualisierbar: eigener Shop, Agent-Layer, Paid Search, Content Injection und angereicherte Feeds decken die entscheidenden Felder ab. Die Lücken (Social, Influencer) betreffen Bereiche, in denen die Brand ohnehin weniger Kontrolle hat.

Die Voraussetzung für alle Szenarien ist identisch: Produktdaten müssen in kontextspezifischen Bedeutungsschichten vorliegen: strukturiert, maschinenlesbar, ausspielbereit. Ohne diese Basis ist auf keinem Touchpoint etwas zu holen. Mit ihr auf fast allen.

Was wir bereits gebaut haben. Und warum das ein echter Wettbewerbsvorteil ist.

Contextual Product Intelligence ist keine Pitch-Deck-Idee, sondern steht auf drei produktiv laufenden Assets, die zusammen eine integrierte Funnel-Maschine ergeben. Diese Kombination ist im DACH-Markt einzigartig und der härteste Reason-to-Believe für Kunden und Sales.

Asset 01 · Traffic & Thought Leadership

PXI Hub: die Content-Distributionsplattform

Zentrale Publikations- und Nurture-Plattform für Y1s PXM-Content. Mini-Teaser und Thesen-Artikel öffentlich zugänglich, vollständige Inhalte gegen Business-Email. Funktion im Funnel: Ziel für LinkedIn-Traffic, Top-of-Funnel-Qualifikation, Einstiegspunkt für den Explorer. Aggregierte Segment- und Dimensionsdaten sichtbar, individuelle Brand-Daten bleiben gegated.

Status Live
Zugang Öffentlich mit Email-Gate
Funnel-Rolle Awareness, Lead-Capture
Asset 02 · Proprietäre Datenbasis

PXM Explorer: 700+ Brands strukturiert bewertet

Die eigenentwickelte Primärdatenbasis mit mehr als 700 bewerteten Brands über das PXM Maturity Model (sechs Dimensionen, 26 Experience Indicators). Registrierungsgeschützt. Brands sehen nach Email-Abgabe ihren Score, ihre Position im Segment, ihr Dimensionsprofil gegen den Segment-Durchschnitt. EI-Details und Reasoning bleiben als Stufe-3-Assets kostenpflichtig. Das ist der DACH-weit einzigartige Asset, auf dem die gesamte Content-Engine aufsetzt.

Datenstand 700+ Brands · DACH-Fokus
Zugang Email-Registrierung (Stufe 1)
Funnel-Rolle Qualifizierter Lead
Asset 03 · Skalierungs-Engine

Content-Engine: zwölf standardisierte Formate

Produktionsreifes System zur Generierung publikationsfertiger Inhalte aus der Explorer-Datenbasis. Fünf Thought-Leadership-Formate (TL), drei Lead-Gen-Formate (LG), fünf Sales-Outreach-Formate (SO). Drei Disclosure-Stufen regeln sauber, welche Daten wo erscheinen: Stufe 1 öffentlich (aggregierte Patterns als TL-Content für Hub und LinkedIn), Stufe 2 gated (Brand Report als produktisiertes Deliverable), Stufe 3 kostenpflichtig (vollständige EI-Analyse in Quick-Scan und Deep-Assessment). Das macht aus der Datenbasis eine kontinuierliche Content- und Sales-Pipeline statt einer Einzelveröffentlichung.

Formate 12 (5 TL, 3 LG, 5 SO)
Disclosure 3-stufig, regelbasiert
Funnel-Rolle Content-Multiplikator, Sales-Enablement
Warum das ein echter Moat ist

Keine Generalistenberatung (Accenture, Valtech) und keine AI-Boutique hat eine vergleichbare DACH-Datenbasis. Keine PIM-Hersteller und keine Content-Injection-Player liefern strukturierte Brand-Reifegrad-Daten. Die Kombination aus eigener Datenbasis, Content-Engine und Disclosure-Logik ist das, was Y1 von jedem denkbaren Wettbewerber unterscheidet. Und genau diese Kombination ist die Grundlage jedes Angebots in Section 06.

Stufenlogik des Asset-Zugriffs

Stufe 1, öffentlich. Aggregierte Patterns, Segment-Durchschnitte, Top-3-Namen mit Scores. TL-Formate auf PXI Hub und LinkedIn. Keine individuellen EI-Daten, keine Reasoning, keine Empfehlungen.

Stufe 2, gated. Individuelle Brand-Scores im Explorer (Lead-Qualifikation). Brand Report als produktisiertes Deliverable mit Stufe-2-Analyse und Segment-Einbettung. Keine Segment- oder Vertical-Reports als eigenständige Produkte. Die Inhalte laufen als öffentlicher TL-Content oder sind Teil des Brand Reports.

Stufe 3, das eigentliche Produkt. Vollständige EI-Analyse, Reasoning, konkrete Handlungsempfehlungen, Ist/Soll-Profile. Das ist, was wir verkaufen. Nie kostenlos, nie angedeutet, nie im Hub sichtbar.

Was Y1 tut. Und was bewusst nicht.

Y1 produziert keinen Content. Y1 baut die Intelligenz zwischen Produktdaten und Touchpoint: Beratung, Konzeption und Implementierung der kontextsensitiven Ausspiellogik. Auf der Asset-Basis aus Section 05 entsteht ein sechsstufiger Funnel von Gated Self-service über Outreach und Targeted Outreach bis zum bezahlten Quick-Scan, Deep-Assessment und zur Implementation.

Wertschöpfungskette

Datenmodell
PIM
Kontextdefinition
TMPC
Ausspiellogik
TMPC
Channel-Anbindung
C&C
Messung
PXM Intel.

Service-Architektur: sechsstufiger Funnel

Vom Gated Self-service bis zur tiefen Implementierung. Jede Stufe hat klare Preislogik, klares Deliverable, klare Eskalationsbrücke zur nächsten Stufe. Der Übergang zwischen Stufen ist der entscheidende Mechanismus. Deshalb ist jede Stufe so gebaut, dass sie die nächste natürlich vorbereitet.

Stufe 01 · Gated Self-service

PXI Hub

Gated Self-service auf pxi.y1.studio. Öffentlich sichtbare Teaser und Thesen, vollständige Inhalte (Segment-Rankings, Dimension-Radar, eigener Brand-Score im Segmentvergleich) hinter Business-Email-Gate. Keine EI-Details, keine Reasoning-Ketten, keine Handlungsempfehlungen. Zweck: qualifizierter Top-of-Funnel durch Themen- und Brand-Selbstselektion, Lead-Capture, Nachfrage-Signal pro Segment.

Preis Kostenlos nach Business-Email-Registrierung
Funnel-Rolle Self-service, Lead-Capture
Brücke zu Stufe 02 Gezielter Outreach basierend auf Hub-Signals
Stufe 02 · Outreach

PXM Content Types

Zwölf produktisierte PXM-Content-Formate aus der Content-Engine als Outreach-Vehikel: Segment-Pulse, Dimension-Benchmarks, Vertical-Vergleiche, Thesen-Artikel. Verteilung über LinkedIn, Newsletter und direkte Sales-Ansprache. Zweck: Thought-Leadership-Sichtbarkeit, inhaltlicher Türöffner, Selbstqualifikation durch Themenselektion. Keine brand-spezifischen Daten in diesem Schritt.

Preis Y1-seitig finanziert (Marketing-Asset, kein Brand-Preis)
Funnel-Rolle Outreach, Cold-Engagement
Brücke zu Stufe 03/04 Report-Upsell, Assessment-Anfrage
Stufe 03 · Targeted Outreach

PXM Brand Report mit Segment/Vertical Kontext

Produktisiertes Deliverable als Targeted-Outreach-Instrument für eine konkrete Brand. Analyse auf Stufe-2-Niveau: Dimensionsprofil, Segment-Einordnung, Top- und Bottom-Performance-Muster, Vergleich gegen Segment-Leader. Segment- und Vertical-Kontext als Einbettungsschicht enthalten, nicht als separates Produkt. Keine EI-Details, keine Reasoning-Ketten, keine konkreten Handlungsempfehlungen — die bleiben Stufe 05 und 06 und kommen über Quick-Scan oder Deep-Assessment.

Preis Y1-seitig finanziert (Targeted-Outreach-Asset, kein Brand-Preis)
Funnel-Rolle Targeted Outreach, Gesprächsöffner
Brücke zu Stufe 04/05 AI-Readiness oder Gap-Diagnose als Folgeanfrage
Stufe 04 · Paid

AI Visibility Quick-Scan

Produktisierte Tiefenanalyse der eigenen Brand: standardisierte Prompt-Sets, Citation-Tracking über ChatGPT, Perplexity, Google AI; Brand-Radar gegen Segment-Leader; Gap-Analyse; 60-Minuten-Debrief-Call. Deliverables: Brand-1-Pager (SO-1) und individueller Score-Teaser (LG-3). Laufzeit zwei Wochen. Produktisiert aus Content-Engine plus manueller Analyse.

Preis 5 k€ Festpreis
Lead TMPC
Brücke zu Stufe 05 Deep-Assessment-Anfrage
Stufe 05 · Deep-Assessment

PXM Context Readiness Assessment

Vollständiger Audit über fünf Dimensionen: Attributtiefe, Kontextvarianten, Maschinenlesbarkeit, Channel-Coverage, Agent Readiness. Verbindet AI-Readiness (Pain A) mit Performance-Diagnose (Pain B). Deliverables: Score, Gap-Analyse, priorisierte Roadmap, konkrete Implementierungsvorschläge auf Stufe-3-Niveau (vollständige EI-Analyse, Reasoning, Empfehlungen).

Preis 15–20 k€
Lead TMPC · Co-Delivery PIM, C&C
Brücke zu Stufe 06 Implementation-Angebot
Stufe 06 · Implementation

Contextual Performance & Agent Readiness Implementation

Konzeption und Implementierung kontextspezifischer Ausspiellogiken pro Touchpoint: Feed-Enrichment, Content Injection (Loadbee-Kooperation), PMax-Asset-Strategie, Shop-Personalisierung, MCP-Anbindung, Structured Data, maschinenlesbare Feeds. Der Hauptwertschöpfungsblock mit klarem Business-Case über ROAS-, Conversion-, Retouren- und AI-Citation-KPIs.

Preis tbd
Lead TMPC · Co-Delivery C&C, PIM
Adressiert Pain A & B
Content-Engine als Sales-Multiplikator

Die zwölf Formate aus der Content-Engine bespielen nicht nur Stufe 01 bis 03, sondern auch die Sales-Prozesse dahinter. SO-1 (Brand-1-Pager) und SO-2 (Segment-Briefing) sind interne Sales-Dokumente. SO-3 (Outreach-Sequenz) ist automatisierbares Lead-Nurturing nach jedem Hub-Signup. SO-5 (Event-Deck) ist die Grundlage für K5 und jedes andere Bühnenformat. Diese Engine ersetzt konventionelles Content-Marketing und Sales-Enablement in einem.

Produktisierungslogik Quick-Scan

Der Quick-Scan (Stufe 04) ist bewusst template-basiert und nicht tool-gestützt in der ersten Iteration: standardisierte Prompt-Sets, Scraping-Playbook, Report-Template aus der Content-Engine, manuelle Delivery durch TMPC. Vibe-coded, reproduzierbar, in zwei Wochen lieferbar. Ein dediziertes Tool kann im zweiten Schritt entstehen, sobald das Template eine zweistellige Anzahl Durchläufe hat und die wiederkehrenden Muster sichtbar sind.

Service-Baustein im Aufbau: AI Visibility Measurement

AI Visibility ist 2026 kein optionales Thema mehr: LLMs werden zunehmend die erste Stufe der Produkt-Discovery für Endkonsumenten und B2B-Einkäufer. Wer in den Antworten nicht vorkommt — oder mit falschen Attributen, in der falschen Variante, im falschen Kontext — verliert Umsatz, bevor der Kunde auf der PDP landet. Y1 baut dafür eine eigene Mess-Disziplin auf, weil der bestehende Tool-Markt (Profound, Evertune, Peec, Otterly, Semrush AIO) die PIM-zentrierte Produktkatalog-Frage methodisch nicht beantwortet. Eigenbau ist Notwendigkeit zur Erfüllung der Kundenanforderung, nicht strategische Präferenz.

Aufbau-Phase · AI Visibility

Contextual Product Intelligence Measurement (CPIM)

Mess-Disziplin für Produkt- und Varianten-Sichtbarkeit in LLMs auf SKU-Niveau. Unterscheidet sich methodisch von etablierten AI-Visibility-Tools durch PIM-Groundtruth-Validierung, 4-Achsen-Messmatrix (Segment × Brand × Produkt × Kontext) und segmentnormierte Kontexte. Kern-Metriken: Mention Rate, Mention Rank, Share of Model Voice, Attribute Accuracy, Contextual Visibility Index. Constrained LLM-Extraction mit striktem JSON-Schema plus deterministische Metrik-Rules — reproduzierbar zu >95 Prozent. Zielbuyer: Head of E-Commerce, PIM-/Digital-Lead, Category-Manager — nicht CMO. Der Output speist Quick-Scan (Stufe 04) und Deep-Assessment (Stufe 05) und schafft die eigenständige Dimension „AI Discoverability“ im PXM Maturity Scan.

Status Konzept validiert, Piloten-Brand Stihl in Vorbereitung
Stack Cloudflare Workers + D1 + Queues + R2
Validierungs-Gate Methodik-Validität, Insight-Qualität, Reproduzierbarkeit
Warum Y1 das selbst baut

Der Pilot trägt ein echtes Umsetzungsrisiko: Varianz in LLM-Responses, Qualität der Kontext-Extraktion, Reproduzierbarkeit über Modelle und Zeit. Deshalb ist CPIM bewusst als Piloten-Invest geführt und nicht als verkaufbares Produkt versprochen. Erst wenn die Methodik an einem Kunden-Case (Stihl) mit klaren Success-Criteria validiert ist, wird CPIM in das Service-Portfolio integriert und preist sich in die Quick-Scan- und Deep-Assessment-Logik ein. Der strategische Moat liegt ohnehin nicht im Tool, sondern in der PIM-Integrationsfähigkeit und der Handlungsableitung auf Y1-Service-Linien.

Wer auf diesem Feld spielt. Und wo Y1 die Lücke sieht.

Arbeitspositionierung zur internen Prüfung, nicht als Marketing. Jede Zeile ist eine Behauptung, die in Phase 1 belastbar werden muss.

Akeneo, ContentservPIM-Hersteller
Stellen die Datenplattform, zunehmend mit eigenen "Contextual PXM"-Modulen. Liefern Technologie, aber keine Beratung zu Kontextdefinition und Channel-spezifischer Ausspiellogik in der Tiefe, die DACH-Brands brauchen.
Y1-Rolle: Implementierungs- und Strategiepartner. Die Software alleine löst das Problem nicht, sie braucht Kontextmodelle, Governance und Channel-Anbindung. Hier liegt unser Wertbeitrag.
Productsup, SyndigoFeed- / Syndication-Player
Verteilen Produktdaten an Channels. Gut im Transport, schwach in der Bedeutungsschicht davor. Das "Was soll wohin in welcher Form" ist kein Kernfeld dieser Anbieter.
Y1-Rolle: Wir bauen die Kontextlogik, die vor dem Syndication-Layer sitzt. Die Anbieter sind Partner, nicht Konkurrent.
Loadbee, DemoUp CliplisterContent-Injection-Player
Technologie zur Content-Ausspielung auf Retailer-PDPs. Stark im Rendering, wachsend in Kontextsensitivität. Liefern keine Beratung auf Brand-Seite zur Konzeption von Kontextmodellen.
Y1-Rolle: Beratungs- und Implementierungsschicht darüber. Die angebahnte Y1-Loadbee-Kooperation ist der strategische Baustein, der das Angebot vollständig macht.
Performance-Marketing-AgenturenPMax, Paid Social, Retargeting
Optimieren Bidding, Budgets und Kreativproduktion. Behandeln Produktdaten als gegeben und arbeiten mit dem, was die Brand liefert.
Y1-Rolle: Datenlieferant und strategischer Berater vor der Kampagne. Wir verändern nicht, wie die Agentur bietet, sondern womit sie arbeitet.
Generalist-DigitalberatungenAccenture Song, Valtech et al.
Breite Beratung zu Digital Commerce, selten tief genug im PXM-Feld. Zielen auf Großkonzerne mit mehrjährigen Transformationsprogrammen.
Y1-Rolle: Spezialistentiefe, DACH-Fokus, schnellere Time-to-Value. Wettbewerbsfrei, solange wir im Mittelstand und gehobenen Mid-Market bleiben.
Agentic Commerce AllianceDACH-Konsortium um Shopware
Strategische Allianz (Trusted Shops, Nexi, PayPal, valantic, basecom, Pimcore, FactFinder u.a.) mit Fokus auf offene Standards, Datensouveränität und Händler-Autonomie. Explizit als Gegenpol zu Amazon, Google und OpenAI positioniert.
Y1-Rolle: Kein Wettbewerber, sondern strategische Partnerschaftsoption. Nähe zur Alliance kann für DACH-Brands mit Datensouveränitäts-Argument ein Differenzierungsfaktor sein, eine Positionierungsentscheidung, nicht technisch zwingend.
These

Das integrierte Feld aus Datenarchitektur, Kontextlogik, Channel-Distribution und Messung ist im DACH-Mittelstand noch nicht besetzt. Das ist die These. Sie muss in Phase 1 belastbar gemacht werden.

Was bereits live ist. Konkret, produktiv, mit öffentlichen Zahlen.

Die strategische Argumentation lebt von konkreten Referenzen. Dieser Abschnitt bündelt, was im Markt heute bereits funktioniert, als Evidenz gegen den Einwand, Agentic Commerce sei ein Zukunftsthema.

B2C · Händler und Plattformen
PlayerWas läuftEvidenzQuelle
Amazon RufusFrontrunner · Q4 2025 300 Mio. aktive Nutzer, rund 12 Mrd. USD inkrementeller annualisierter Umsatz. +60 % Conversion-Uplift auf unterstützten Flows. Geschätzte 25–35 % der täglichen Amazon-Suchen laufen Ende 2025 über Rufus ● Earnings Call
Walmart Sparkyseit Juni 2025 In-App-Agent mit ChatGPT Instant Checkout über ACP (ca. 200.000 Produkte shoppbar). Testet "Sponsored Prompts" als neue Retail-Media-Fläche. Erster Blick, wie Werbebudgets in der Agentenwelt aussehen ● live
KlarnaDACH-relevant GPT-4-basierter Shopping- und Service-Assistent. Leistet laut OpenAI-Case die Arbeit von 700 Vollzeit-Agenten, mit entsprechenden Kosteneffekten. Marktnah in DACH, das zitierfähigste Consumer-Beispiel für deutsche Retailer ● live
Zalandoseit über einem Jahr Eigener KI-Assistent produktiv im Einsatz. Gehört zu den europäischen Referenzen für On-Site-Agenten mit Markenkontrolle. Europäischer Leuchtturm für Eigenlösungen ● live
OTTOMärz 2026 Gemini-basierter Shopping-Assistent in der App ausgerollt. Nach gescheitertem ersten Versuch jetzt Version zwei auf Google-Stack. Frisches DACH-Referenzbeispiel ● live
B2C · Hersteller
PlayerWas läuftEvidenzQuelle
Shopify-MerchantsGlossier, SKIMS, Spanx, Vuori 15× YoY-Wachstum bei Orders aus AI-Suchen seit Januar 2025 über alle Shopify-Merchants hinweg. DTC-Marken als Launch-Partner für ChatGPT Instant Checkout. Konkrete DTC-Marken mit messbarem Agent-Umsatz, noch auf kleiner Basis ● live
Unilever, P&GCPG via Google Cloud "Invisible Shelf"-Positionierung. Reifegrad bisher eher Discovery/AEO, weniger Transaktion. Strategie-Level live, Transaktion noch nicht ◐ Discovery-Stage
Eigene On-Site-AgentenBrands jenseits von Amazon/Walmart Bain-Zahl 3× Vertrauen legt das Potenzial nahe. Bisher kaum Maßstäbe gesetzt außerhalb der großen Plattformen. Größte freie Fläche aktuell ○ offen
B2B · Die belastbarste Evidenz
PlayerWas läuftEvidenzQuelle
Pactum AILeuchtturm Agent-to-Agent Autonome B2B-Verhandlung live bei Walmart, Maersk, Otto Group, Henkel, Linde, Vodafone, Deutsche Telekom, Rolls-Royce u.a. >60 Fortune-2000-Enterprises. Walmart: 3 % Ersparnis, 35 Tage längere Zahlungsziele, 75 % Lieferanten-Präferenz für Bot. Größter autonomer Deal: ~100 Mio. USD. Schnellster: 87 Sekunden. ● produktiv
SAP Ariba mit Joule-Agentsseit Q1 2026 General Availability. RFP-Erstellung 70 % schneller, Marktanalyse 90 % schneller. IBM meldet RFx-Lead-Time halbiert bei besserer Policy-Compliance ● live
Henkelproduktiver Pactum-Einsatz Autonome Anbahnung für preis-volatile Produktkategorien. Für einen deutschen Industriekonzern das Case-Study-Material schlechthin. Direkter DACH-Bezug · öffentlich dokumentiert ● produktiv
commercetoolsACP-Launch-Partner Seit September 2025 offizieller ACP-Launch-Partner. Referenzkunden BMW und Sephora setzen die Composable-Foundation für Agent-Readiness bereits um. Für B2B-Hersteller mit commercetools-Stack direkter Weg in UCP/ACP-Compliance ● live
Realitätscheck

Nicht alles, was angekündigt ist, läuft rund. OpenAIs Instant Checkout in ChatGPT ist seit September 2025 live, aber CNBC berichtete im März 2026 von einer Strategie-Korrektur: statt In-Chat-Checkout jetzt eher Redirect-to-Merchant-App. Stand März 2026 nur rund 30 Shopify-Merchants tatsächlich live, Onboarding laut Forrester "arduous". Das ACP-Protokoll funktioniert, die Operationalisierung ist schwieriger als versprochen. Für CFO-Gespräche: das sauber framen, sonst wird die Zahl angreifbar.

DACH-Spezifikum · Agentic Commerce Alliance

Shopware hat im Juli 2025 die Agentic Commerce Alliance gegründet. Stand Januar 2026 mit Trusted Shops, Nexi, PayPal, Klaviyo, ChannelEngine, valantic, basecom, Pimcore, FactFinder/Omikron, Strix und Mollie. Explizit als Gegenpol zu Amazon, Google und OpenAI positioniert: offene Standards, Datensouveränität, Händler-Autonomie. Das ist der politisch-strategische Gegenentwurf aus dem DACH-Raum zum US-dominierten UCP/ACP-Ökosystem, und für Y1 eine strategisch relevante Entscheidung, wie nah wir an diese Allianz heranrücken.

Was das für die Y1-Positionierung bedeutet

Drei Schlussfolgerungen aus der Evidenzlage:

  1. B2B ist der belastbarste Markt. Pactum, SAP Ariba, Henkel: hier laufen heute bereits messbare Deals mit autonomen Agenten. Für Y1 ein unterschätztes Feld, wenn die bestehende Kundenbasis B2B-Hersteller umfasst.
  2. B2C-Brands sind im Nachholmodus. Außerhalb der großen Plattformen (Amazon, Walmart, Zalando, OTTO) ist wenig Eigenkompetenz aufgebaut. Genau dort liegt das Assessment-Geschäft.
  3. Die Protokoll-Frage ist real. UCP/ACP versus Agentic Commerce Alliance ist keine technische Randentscheidung, sondern eine strategische Weichenstellung. Y1 muss sich positionieren, nicht zwingend exklusiv, aber sichtbar.

Zweistufiger Einstieg. AI-Readiness als Türöffner, Performance als Wertschöpfungscase.

Pain A bringt den Hype-Vorteil und den kurzen Sales-Cycle. Pain B trägt die eigentliche Wertschöpfung und Stickiness. Die Tier-Logik nutzt beide gezielt, nicht parallel, sondern sequenziell.

Tier 1 · Entry & Volumen

Pain A: AI Visibility als produktisierter Türöffner

Der Hype um KI-Agenten und AI-Suche ist real. CMOs haben Budget-Töpfe dafür, der Sales-Zyklus ist kurz, die Wettbewerbsdichte in DACH ist niedrig. Produktisierter Quick-Scan als Festpreis-Einstieg bei 5 k€, Deep-Assessment bei 15 bis 20 k€.

Funktion im Portfolio: Volumen, Referenzen, Lead-Generierung über Thought Leadership. Der Quick-Scan ist kein Profit-Center, sondern ein Qualifikationsinstrument, und es öffnet das Gespräch über die Produktdaten-Architektur, das sonst nicht zustande käme.

Schnell bei Abschluss · Hohe Skalierbarkeit · Begrenzte Tiefe
Tier 1b · Wertschöpfung

Pain B: Contextual Performance als Eskalationscase

Der substantielle Business-Case. Im Deep-Assessment wird Pain B sichtbar gemacht: die Diagnose, wo Content-Kontext-Mismatch messbar Performance kostet. Aus dem Assessment wird die Implementierung: 25 bis 80 k€ Konzeption und Umsetzung.

Funktion im Portfolio: Margenstarke, stickige Kundenbeziehungen mit Follow-up-Logik über ROAS- und Conversion-KPIs. Das ist der Umsatzträger, während Pain A die Leads bringt.

Hoher Projektwert · Längere Engagements · Messbarer ROI
Warum sequenziell statt parallel

Ein klassischer Pain-B-Pitch ohne Pain-A-Vorlauf hat ein Edukations-Problem: Entscheider müssen erst verstehen, warum Produktdaten-Architektur überhaupt Performance-relevant ist. Ein Pain-A-Einstieg umgeht das. Der Hype liefert die Aufmerksamkeit, der Quick-Scan liefert die ersten Daten, und aus diesen Daten entsteht organisch der Pain-B-Case. Die Entscheider kommen über den Trend und bleiben über den Business-Case.

Für Y1 strategisch entscheidend: die Infrastruktur ist für beide Pains identisch. Kontextspezifische Produktdaten, strukturiert und maschinenlesbar, lösen AI-Sichtbarkeit und Performance-Hebel. Ein Kunde, der über Pain A einsteigt, bekommt die Datenbasis, die Pain B direkt adressierbar macht, ohne zweite Grundlagen-Investition.

Voraussetzung: Produkt-Investment

Tier 1 funktioniert nur, wenn das AI-Readiness-Assessment echt produktisiert ist: standardisierte Prompt-Sets, reproduzierbares Scraping, Report-Template, Sales-Kit, Playbook für die Delivery. Das ist ein Build-Case von geschätzt 20 bis 30 Personentagen über die nächsten zwei Quartale. Ohne dieses Invest bleibt Pain A ein Projektgeschäft mit individueller Delivery, und verliert damit seinen strategischen Vorteil gegenüber klassischen Beratungsangeboten.

K5 als Validierungsfenster. Nicht Launch. Nicht Kampagne. Kontrolliertes Resonanztesten unter Livebedingungen.

K5 bündelt das DACH-E-Commerce-Entscheider-Publikum in einer Woche. Statt die Messe als Launch zu inszenieren, nutzen wir sie als das wertvollste Validierungsinstrument, das verfügbar ist: echte Prospects, echte Preisreaktionen, echte Buying-Center-Signale innerhalb weniger Tage. Das Papier trifft keine Launch-Entscheidung. Es beschreibt, wie K5 die PMF-Hypothesen am schnellsten härtet oder widerlegt.

Drei Phasen, drei Hypothesen-Sets

Phase A · Pre-K5

Hypothesengetriebene Content-Distribution

6 Wochen vor K5
● Validierungsaktivitäten
  • Selektive LinkedIn-Distribution mit Hypothesen-Fokus: 2 Thesen-Artikel (TL-5), 3 Segment-Pulse (TL-1), 2 Dimension-Deep-Dives (TL-2), 2 EI-Spotlights (TL-3). Jedes Format testet eine spezifische Narrativ-Hypothese.
  • PXI Hub live mit Content-Ausspielung und Mini-Teaser-Gates. Tracking: Welche Formate ziehen Signups? Welche Thesen erzeugen Dialog statt Likes?
  • PXM Explorer verfügbar gegen Lead-Qualifikation (Email plus kurzes Profil). Registrierungen als Nachfrage-Signal pro Segment, nicht als Marketing-KPI.
  • Gezielte persönliche Einladungen an priorisierte Bestandskunden und warme Leads für die Messe, mit dem Explorer als Konversationsstarter.
○ Was wir bewusst nicht tun
  • Keine breite Kampagne, keine Paid-Promotion der TL-Formate. Phase A soll zeigen, was organisch trägt, nicht, was Budget kauft.
  • Keine individuellen Brand-Scores in öffentlichen Posts. Explorer-Zugang bleibt gated, Stufe-1-Disclosure-Regeln gelten strikt.
  • Keine Fixpreise in der öffentlichen Kommunikation. Services sind auf Anfrage, die Preisreaktion beobachten wir auf der Messe.
  • Kein Generalthema-Shift zu AI-Commerce-Hype. Contextual Product Intelligence bleibt die Hauptnachricht, AI-Readiness bleibt der Einstieg.
Was wir messen wollen

Welche Narrativ-Hypothese zieht am meisten Dialog? Welche Segmente sind überdurchschnittlich interessiert (Signups, Kommentare, Direktnachrichten)? Welche Formate konvertieren von Post zu Hub-Besuch zu Explorer-Registrierung? Diese Signale fließen direkt in die Positionierung für die Messe. Richtwert für erste Orientierung: 200 bis 500 Explorer-Registrierungen, 30 bis 60 persönliche Messe-Einladungen mit Bestätigung.

Phase B · K5 Live

Positionierung, Preisreaktion, Buying-Center testen

Mitte Juni · 4 Messetage
● Validierungsaktivitäten
  • Booth als Demo-Umgebung: Live-Explorer, Scoring auf Zuruf für Standbesucher-Brands, strukturiertes Kurzgespräch mit Y1 über die sichtbaren Gaps.
  • Keynote oder Fachvortrag mit SO-5 Event-Deck. Kernthesen aus Phase A nochmal strukturiert vor Publikum. Resonanz im Raum messen, Fragen protokollieren.
  • Produktisierungs-Stresstest: Quick-Scan und Deep-Assessment sind real verfügbar. Messegäste können tatsächlich zu Pilotkunden werden, die Produktlogik steht ihren ersten Realitätsbeweis.
  • Qualifikations-Flow am Booth: Brand erfassen, Score zeigen, Gap benennen, nächsten Schritt anbieten. Keine Fixpreise kommunizieren. Wir hören zu, welche Preisreaktion kommt, bevor wir festlegen.
  • Kooperative Präsenz mit Loadbee oder anderen PXM-Alliance-Partnern falls thematisch passend, um Content-Injection-Baustein demonstrierbar zu machen.
○ Was wir bewusst nicht tun
  • Kein Verschenken von Stufe-3-Inhalten. Der Explorer zeigt Stufe 1, der Booth-Talk bleibt diagnostisch, vollständige Analysen gibt es nur kostenpflichtig.
  • Kein Agent-Builder-Positioning. Wir sind Agent Readiness Consultant und Integrator, nicht AI-Boutique.
  • Keine Pauschalrabatte auf Zuruf. Wenn eine Brand ein Angebot will, bekommt sie ein individuelles Scoping. Wir beobachten, was der Markt als fairen Preis signalisiert.
  • Keine Verwässerung der Tier-Logik. Wer den vollen Report will, zahlt den vollen Report. Wer nur reinhören will, bleibt im gated Explorer.
Was wir messen wollen

Welche Brand-Typen (Segmente, Größen, Reifegrade) bleiben am Booth stehen? Welche Gesprächseinstiege funktionieren, welche nicht? Welche Preis-Indikationen geben Entscheider, ohne dass wir einen Preis nennen? Wie viele konkrete Quick-Scan-Anfragen, Deep-Assessment-Gespräche, Implementierungs-Signale? Richtwert für erste Orientierung: 60 bis 100 qualifizierte Booth-Gespräche, 10 bis 20 konkrete Scan- oder Assessment-Anfragen, 2 bis 3 Implementation-Leads in der Pipeline.

Phase C · Post-K5

Auswertung, Eskalation und Entscheidungsgrundlage

8 Wochen nach K5
● Validierungsaktivitäten
  • Systematisches Follow-up an alle Booth-Kontakte mit Outreach-Sequenz (SO-3), Brand-1-Pager (SO-1) als konkretem Einstieg. Jede Mail referenziert Brand und Segment spezifisch.
  • Segment-Briefings (SO-2) für das Sales-Team zu den drei bis fünf stärksten Nachfrage-Segmenten aus dem K5-Feedback. Strukturierte Gesprächsführung in der Eskalation.
  • Gezielte Brand Reports auf Anfrage für die Brands, in denen die Nachfrage messbar war. Preise werden fallweise festgelegt und beobachtet.
  • Post-K5 Thesen-Artikel (TL-5) als Fortsetzung der Hypothesen-Linie: Was haben wir gehört, was hat sich bestätigt, was war überraschend? Das erzeugt Gesprächsfläche und dokumentiert Lernfortschritt.
  • Review-Sitzung nach 4 Wochen: Validierungsergebnisse konsolidiert gegen die Kill-Kriterien aus Section 11. Entscheidung über Fortführung, Pivot oder Stopp der einzelnen Angebotsbestandteile.
○ Was wir bewusst nicht tun
  • Keine generischen Follow-ups. Jeder Kontakt bekommt ein personalisiertes Echo, das auf die Booth-Gesprächsnotiz aufbaut.
  • Keine Rabatte oder Sonderpreise, um Abschlüsse zu erzwingen. Der Preis, den der Markt zahlt, ist die eigentliche Validierungsinformation.
  • Kein Umlenken in klassische PIM-Projekte, wenn Contextual Product Intelligence abgelehnt wird. Das wäre Ja-Sagen zulasten der Positionierung. Stattdessen: Ablehnung sauber protokollieren und in die Validierung einfließen lassen.
  • Keine Kampagnen-Verlängerung ohne Validierungs-Grundlage. Wenn nach 8 Wochen die Zahlen nicht tragen, ist das ein Signal, nicht ein Grund für mehr Output.
Was wir messen wollen

Konversionsrate von Messe-Kontakt zu bezahltem Engagement, realisierter Preispunkt pro Deliverable (Scan, Report, Assessment), Qualität der Buying-Center-Signale (wer entscheidet, wer bezahlt), Qualität der Implementation-Leads. Richtwert für erste Orientierung: 15 bis 25 % Konversion der Booth-Kontakte in bezahlte Deliverables, mindestens 2 Deep-Assessments und 1 Implementation-Signal aus dem K5-Pool. Die realen Zahlen zählen, nicht die Zielmarken. K5 ist genau dafür da, diese Werte zu kalibrieren.

Warum K5 das effizienteste Validierungsinstrument ist

Vier Tage mit DACH-E-Commerce-Entscheidern in konzentrierter Form erreichen, wofür in normalen Quartalen 30 bis 50 qualifizierte Gespräche nötig wären. Das Setting ist zudem kontrolliert: Y1 gibt den Rahmen vor, die Entscheider kommen vorbereitet und messen Y1 an konkreten Aussagen. Jedes Gespräch am Booth, jede Frage nach der Keynote, jede abgelehnte Preisindikation ist ein Datenpunkt, der die PMF-Hypothesen aus Section 11 härtet oder widerlegt. K5 ersetzt keine Validierungsphase, aber es beschleunigt sie um Wochen.

Voraussetzung bis Anfang Mai

Bis zum Start der Pre-K5-Phase müssen drei Dinge produktionsreif sein: (1) PXI Hub mit mindestens fünf TL-Formaten live und stabiler Content-Ausspielungs-Logik, (2) PXM Explorer mit stabilem Lead-Gate (Email plus Profil) und CRM-Anbindung, (3) Quick-Scan-Template, Deep-Assessment-Playbook und Sales-Kit so weit vorbereitet, dass Angebote aus dem Booth heraus noch am selben Tag verschickt werden können. Ohne diese Voraussetzung wird K5 zum Thought-Leadership-Auftritt ohne Erkenntnisgewinn.

Falsifizierbare PMF-Tests mit Kill-Kriterien.

Für jede Phase ist definiert, was die Hypothese bestätigt, und was sie tötet. In 20 Wochen steht eine belastbare Antwort.

Phase 01 · Problem-Validierung

Sind die Pains real und budgetrelevant?

Wochen 1–4 · 12 Gespräche
● Bestätigungssignale
  • Mindestens 7 von 12 Gesprächspartnern nennen spontan, ohne Priming, einen der beiden Pains als aktuelles Problem.
  • Mindestens 4 von 12 benennen konkrete KPI-Veränderungen (ROAS-Einbruch, Retouren, Conversion-Lücken) mit Zahlen.
  • Mindestens 5 von 12 können benennen, wer intern für den Hebel verantwortlich wäre. Ein klarer Buying Center existiert.
○ Kill-Kriterien
  • Weniger als 4 von 12 stellen ohne Priming den Zusammenhang zwischen Produktdaten und Performance her. Dann: Positionierung zu abstrakt, Pain B muss neu gerahmt werden.
  • Mehrheit löst das Problem inhouse oder über PIM-Hersteller direkt. Dann: kein Agentur-Markt, Pivot auf Software oder Productized Service.
  • Keine Zahlungsbereitschaft für ein 5 k€ AI-Readiness-Quick-Scan erkennbar. Dann: Hype-Vorteil trägt nicht, Tier-1-Einstiegsmechanik ist defekt.
Methodische Selbstkontrolle

Mindestens 4 der 12 Gespräche müssen mit Leads außerhalb des Y1-Bestandskundennetzwerks geführt werden, um Confirmation-Bias durch warme Beziehungen auszuschließen.

Phase 02 · Produkt- und Eskalationslogik

Funktioniert die zweistufige Einstiegsmechanik?

Wochen 5–12 · 8 Quick-Scans, 3 Deep-Assessments
● Bestätigungssignale
  • Mindestens 8 Quick-Scans im Zeitraum verkauft. Der 5 k€-Einstieg produziert Deal-Flow auf dem erwarteten Niveau.
  • Mindestens 4 von 8 Quick-Scan-Kunden konvertieren in ein Deep-Assessment. Die Eskalationslogik trägt.
  • Mindestens einer der 3 Deep-Assessments öffnet den Pfad zu einer Performance-Implementierung im Scope 25 k€+.
  • Der Deep-Assessment-Report überzeugt Kunden so weit, dass sie intern Zugang zum Performance-Marketing-Bereich öffnen.
○ Kill-Kriterien
  • Weniger als 4 Quick-Scans im Zeitraum verkauft. Dann: Nachfrage schwächer als erwartet, Positionierung oder Outbound-Ansatz falsch.
  • Quick-Scan-zu-Deep-Assessment-Konversion unter 25 %. Dann: Quick-Scan ist entweder zu flach oder führt nicht zur Einsicht, die den nächsten Schritt rechtfertigt.
  • Deep-Assessments eskalieren nicht in Implementierungsprojekte. Dann: Assessment landet als abgeschlossener Einzelkauf. Kunde sieht den Pain-B-Hebel nicht oder beauftragt ihn anderswo.
  • Delivery-Aufwand pro Quick-Scan überschreitet 3 Personentage konstant. Dann: Produktisierung unzureichend, Skalierung nicht möglich.
Produkt-Feedback-Schleife

Nach den ersten 5 Quick-Scans kurze interne Review-Session: Wo fragen Kunden Gleiches? Welche Report-Teile werden gelobt, welche ignoriert? Welche Prompt-Sets liefern robuste Ergebnisse, welche nicht? Iteration am Template direkt in den laufenden Lieferprozess einbauen.

Phase 03 · Implementation- & Pricing-Validierung

Trägt das Modell über das Assessment hinaus?

Wochen 13–20 · 2–3 Implementation-Deals
● Bestätigungssignale
  • Mindestens 2 Implementation-Projekte im Scope 25 k€ oder größer abgeschlossen, aus den Deep-Assessments eskaliert.
  • In mindestens einem Projekt lässt sich die ROAS- oder Conversion-Uplift-Hypothese mit Y1-eigenen Zahlen belegen. Der Proof Point, der das gesamte Pain-B-Narrativ trägt.
  • Win-Rate bei Implementation-Angeboten im Zielkorridor 30 bis 50 %. Nicht zu leicht, nicht zu schwer.
○ Kill-Kriterien
  • 0 Implementation-Deals in 8 Wochen nach dem letzten Deep-Assessment. Dann: Assessment-zu-Implementation-Brücke ist nicht belastbar.
  • Erster ernsthafter A/B-Test zeigt keinen messbaren Uplift. Dann: Kernhypothese zu Pain B fraglich.
  • Kunden beauftragen die Implementation in Teilbereichen, aber ohne Performance-Bezug, landen bei klassischen PIM-Themen. Dann: Y1 verkauft effektiv nichts Neues, sondern bestehende Services mit neuem Label.
Pricing-Test

Die Implementation-Angebote werden in zwei Scope-Varianten platziert: 25–40 k€ (Fokus-Scope, ein Touchpoint) und 60–80 k€ (Multi-Touchpoint). Ziel ist, die Korrelation zwischen Deal-Größe und Buying-Center-Struktur zu verstehen. Abschluss der Großprojekte ist nicht Erfolgskriterium der Phase, aber ihr Ausbleiben ist ein Signal zur Scope-Justierung.

Fragen für die Runde.

Das sind die Punkte, an denen dieses Papier nicht weiter geschrieben werden kann, bevor das Team drei bis vier Stunden darüber gesprochen hat.

Q01

Kundenorientierter Service-Name

„Tailor-Made Product Content“ beschreibt die Y1-Vision. Der Markt kauft aber kein Prozess-Label, sondern ein Ergebnis. Arbeitsvorschlag: Contextual Product Intelligence. Entscheidbar in dieser Runde.

Q02

Verbindliches Performance-Versprechen

Geben wir bei Pain B eine Größenordnung öffentlich an, etwa „typisch zweistelliger ROAS- oder Conversion-Uplift“, oder bleiben wir beim Diagnoseversprechen ohne Zahlen, bis eigene Fallzahlen vorliegen? Diese Entscheidung bestimmt die Schärfe jeder Folgekommunikation.

Q03

Loadbee: Partnerschaft oder Kompetenzaufbau?

Die engere Zusammenarbeit ist eingeleitet. Die strategische Entscheidung dahinter ist offen: Bleibt Y1 Implementierungs- und Strategiepartner auf Loadbee-Technologie, oder bauen wir eine technologieunabhängige Content-Injection-Kompetenz? Beides ist tragfähig, aber nicht gleichzeitig.

Q04

Lead-Zuordnung über BUs hinweg

Die Service-Architektur ordnet jedem Service einen klaren Delivery-Lead zu (durchgehend TMPC). Bestätigt die Runde das, oder braucht es ein BU-übergreifendes Practice Lead für Contextual Product Intelligence?

Q05

Produkt-Investment-Kapazität für AI-Readiness-Assessment

Die Entscheidung für einen produktisierten Einstiegsservice steht. Offen ist die operative Umsetzung: Wer baut die Prompt-Sets, das Scraping-Playbook, die Report-Templates und das Sales-Kit? Realistische Schätzung: 20 bis 30 Personentage über zwei Quartale, plus laufende Iteration. Braucht es dafür eine dedizierte Person, ein kleines Team oder eine interne Sprint-Logik? Ohne diese Klärung bleibt der Quick-Scan ein Konzept auf Papier.

Q06

Paid-Search-Nähe: Berater oder Datenlieferant?

Die Überlappung mit Performance-Marketing-Agenturen muss positioniert werden. Option A: Datenlieferant (Feed & Assets) im Auftrag der Brand, kooperativ mit Agenturen. Option B: Strategischer Berater, der Agenturen mitsteuert. Beides hat unterschiedliche Delivery- und Sales-Profile.

Q07

Social- und Influencer-Lücke

Als Innovationsfeld aktiv beackern (Tech-Entwicklung, Research, externe Partnerschaften) oder bewusst parken, bis der Markt reif ist? Kapazität ist knapp, und die meisten Brands priorisieren es nicht.

Q08

Protokoll-Positionierung: UCP/ACP, Agentic Commerce Alliance oder hybrid?

Google UCP und OpenAI/Stripe ACP sind de-facto-Standards mit US-Dominanz. Die Agentic Commerce Alliance (Shopware et al.) positioniert sich als DACH-Gegenentwurf mit Datensouveränitäts-Argument. Y1 muss entscheiden: rein technologiepragmatisch (alle Protokolle bedienen), politisch-strategisch (Nähe zur Alliance suchen), oder mit klarer Differenzierungslogik für bestimmte Kundensegmente? Die Antwort hat direkte Konsequenzen für Partnerschaften, Positionierung und Wunsch-Referenzkunden.

Q09

B2B als zweites Zielsegment?

Die belastbarste Evidenz für Agentic Commerce liegt aktuell im B2B-Segment: Pactum mit Henkel, Otto Group, Deutsche Telekom, Rolls-Royce; SAP Ariba Joule in GA. Das bisherige Papier fokussiert auf B2C-Brands. Öffnen wir das Angebot für B2B-Hersteller (Agent-to-Agent-Vertriebslogik, CPQ-Integration, PIM/PXM mit kontraktkonformen Preisen) oder halten wir den Scope bewusst eng, um in der Pilotphase nicht zu breit aufzustellen?