Contextual Product Intelligence: Y1s strategische Positionierung im PXM-Markt 2026/27. Mit Pain-Mapping, Wettbewerbsanalyse, Asset-Stack, Service-Architektur, K5-Validierungsfenster und falsifizierbarer PMF-Validierung.
CMOs und E-Commerce-Leads sehen seit 18 bis 24 Monaten, wie ihre Haupt-KPIs gegen strukturelle Kräfte anrennen. Die Reaktion läuft fast überall nach demselben Muster und übersieht konsistent den Hebel, der noch in der Hand der Brand liegt.
ROAS auf PMax und Meta bröckelt trotz stabiler oder wachsender Budgets. Conversion Rates stagnieren oder sinken, besonders auf Drittplattformen. Retourenquoten ziehen an, vor allem über Marktplatz-Akquise. AOV entwickelt sich gegen die Erwartung. Die Zahlen fallen nicht dramatisch, aber sie fallen stetig, und jeder Monat, der so weiterläuft, drückt die E-Commerce-Marge näher an die Schmerzgrenze.
Die Ursachen liegen außerhalb der Brand-Kontrolle: konjunkturelle Kaufzurückhaltung, Paid-Inflation bei Google und Meta (CPCs und CPMs steigen seit drei Jahren zweistellig), steigende Wettbewerbsdichte auf allen relevanten Channels, Fragmentierung der Customer Journey über zwölf bis fünfzehn Touchpoints. Keine dieser Kräfte lässt sich durch mehr Budget oder besseres Bidding kompensieren.
Budgets wandern in Kampagnen-Optimierung (neue Agentur, neues Bidding-Setup), in Creative-Produktion (mehr Varianten, schnellerer Output), in Tech-Stack-Erweiterung (CDP, Attribution, noch ein Analytics-Layer). Die Performance-KPIs bewegen sich danach kurzfristig, kehren aber meist auf den Abwärtstrend zurück. Die gemeinsame blinde Stelle: die Qualität und Kontextualisierung der Produktdaten selbst, weil sie traditionell in PIM- und Marketing-Silos liegt, nicht im Performance-Verantwortungsbereich.
Die Produktdaten-Architektur ist der Performance-Hebel, der 2026 noch in der Hand der Brand liegt, und einer der wenigen, der isoliert von Konjunktur, Paid-Pricing und Wettbewerbsdichte wirkt. Kontextspezifisch aufbereitete Produktdaten verbessern das Matching an fast jedem Touchpoint: höhere Conversion auf der PDP, bessere Ad-Relevanz, präziseres Marktplatz-Ranking, niedrigere Retouren durch bessere Fit-Kommunikation. Die Wirkung ist nicht spektakulär pro Touchpoint, aber sie greift überall gleichzeitig und kompoundiert über die Journey.
Der relevanteste Performance-Hebel, der 2026 noch in der Hand der Brand liegt, ist der Wechsel von flacher zu kontextsensitiver Produktdaten-Architektur. Das ist eine Infrastrukturaufgabe, keine Redaktionsaufgabe, und damit eine Aufgabe, die genau zwischen PIM, TMPC und C&C liegt.
Der Infrastrukturwandel durch KI-Agenten und neue Discovery-Protokolle kommt parallel und wird in 12 bis 18 Monaten zum zweiten großen Hebel. Aber er treibt die heutige Budgetentscheidung nicht, weil der Traffic-Verlust noch nicht in jedem Dashboard sichtbar ist. Contextual Product Intelligence adressiert beide Ebenen: den akuten Performance-Druck heute, die KI-Readiness als strategischen Nebeneffekt derselben Datenarchitektur.
Unter der Oberfläche unterschiedlicher Symptome liegt dasselbe strukturelle Problem: flache, kontextfreie Produktdaten, die an jedem Touchpoint dieselbe generische Geschichte erzählen.
Mein Wettbewerber wird von ChatGPT empfohlen, ich nicht, und ich habe keine Ahnung, was er anders macht.
Brands verlieren Sichtbarkeit in KI-Suche und Agent-basierten Kaufentscheidungen. Der Grund: Produktdaten sind flach und kontextfrei. Ein Agent bekommt reichhaltige Prompts („Laufschuh für Überpronation, Marathon, Asphalt“), findet aber nur generische Attribute („Stabilitätskategorie: moderat“) statt kontextspezifischer Relevanzargumentation.
Die Evidenzlage ist eindeutig: Amazon Rufus läuft mit 300 Mio. aktiven Nutzern, Shopify meldet 15×-YoY-Wachstum bei Orders aus AI-Suchen, 45 % der Konsumenten nutzen KI bereits aktiv in ihrer Buying Journey. Wer heute nicht maschinenlesbar ist, ist in diesen Kanälen unsichtbar.
Wenn derselbe Laufschuh unterschiedliche kontextspezifische Attributsets vorhält, für Überpronation, für Knieprobleme, für Trailrunning, jeweils maschinenlesbar, steigt die Wahrscheinlichkeit dramatisch, in relevanten KI-Antworten aufzutauchen. Nicht auf Keywords optimieren und auf Rankings hoffen, sondern dem Agenten so viel kontextspezifische Evidenz liefern, dass der Match zwangsläufig wird.
Differenziert. Für produktisierte Assessments (Quick-Scan, Deep-Assessment) ist die Zahlungsbereitschaft hoch, weil der Hype CMO-Aufmerksamkeit und KI-Budgettöpfe aktiviert. Für tiefe Implementierungsprojekte allein unter Pain-A-Flagge ist sie dagegen niedrig, weil die messbare Business-Wirkung fehlt. Genau deshalb funktioniert Pain A als Entry Point, nicht als eigenständiger Wertschöpfungscase.
Unser ROAS auf PMax ist in zwölf Monaten um rund 30 % eingebrochen, und niemand kann es erklären.
Unsere Conversion Rate auf SportScheck ist halb so hoch wie im eigenen Shop, bei identischen Produkten.
Wir haben 15 % Retourenquote auf Zalando, 8 % im eigenen Shop. Selbes Sortiment.
Content-Kontext-Mismatch ist nicht die Hauptursache dieser Entwicklungen. Konjunkturelle Kaufzurückhaltung, Paid-Inflation bei Google und Meta, steigende Wettbewerbsdichte und KI-Traffic-Absorption sind die strukturellen Treiber, und sie liegen alle außerhalb der Kontrolle der Brand.
Genau deshalb ist Content-Context-Fit der Hebel, der zählt. An Konjunktur, Google-Pricing und Wettbewerbsdichte kann niemand etwas ändern. An der eigenen Produktdaten-Architektur schon, und zwar mit messbarem Effekt auf Conversion, ROAS und Retourenquote.
Generischer Content verpasst die Relevanz beim Zielkunden. Der Laufschuh wird als Laufschuh gezeigt, korrekt, aber unspezifisch. Wer bei Überpronation einkauft, findet das Produkt zwar, aber die Argumentation, warum gerade dieser Schuh die richtige Wahl ist, fehlt. Die Ad konvertiert schlechter, die Retailer-PDP überzeugt nicht, der Shopping-Feed verliert gegen spezifischere Wettbewerber. An jedem Touchpoint dasselbe Muster.
Content liegt bei PIM oder Marketing. Performance liegt bei Performance Marketing oder E-Commerce. Zwischen beiden wird der Zusammenhang selten hergestellt, und genau diese Diagnoselücke ist Y1s Einstiegspunkt.
Der Markt liefert belastbare Zahlen, die sowohl den Performance-Hebel als auch die Agent-Verschiebung stützen. Entscheidend für Y1 ist: die eigene Datenbasis ergänzt externe Studien um eine strukturierte DACH-Perspektive, die kein Wettbewerber hat.
Y1 betreibt eine proprietäre Studie mit strukturiertem Scoring-Framework. Sie schließt die wesentliche Evidenzlücke für den DACH-Markt und ist das Fundament für Thought Leadership, Lead-Generierung und Service-Delivery gleichermaßen.
Diese Datenbasis ist kein Nebenprodukt der Beratung, sondern die zentrale Monetarisierungs- und Positionierungsgrundlage. Sie speist drei Anwendungen: den öffentlichen PXI Hub (pxi.y1.studio) als Lead-Gen-Kanal, den kuratierten PXM Explorer als interne Sales- und Delivery-Plattform, sowie zwölf produktisierte Content-Formate für Thought Leadership, Lead-Gen und Sales Enablement.
Diese Zahlen stammen aus Primärquellen führender Analysten und aus Earnings-Calls gelisteter Unternehmen. Sie zeigen, dass Agentic Commerce kein Zukunftsszenario mehr ist, sondern laufend messbaren Umsatz bewegt. Für die Y1-Positionierung entscheidend: Die Adoption ist breit, aber die Reife der Datenbasis auf Brand-Seite liegt deutlich dahinter. Genau diese Lücke ist der Beratungsmarkt.
Für den Pain-B-Case (Contextual Performance) existieren keine branchenweit etablierten Primärzahlen. Die folgenden Größenordnungen sind Orientierungshypothesen, die in Phase-2-Pilotprojekten DACH-spezifisch quantifiziert werden sollen.
Diese Größenordnungen stammen aus Sekundärquellen, Anbieter-Benchmarks und Publikumsstudien. Sie sind keine Y1-Fallzahlen und dienen explizit als Orientierungshypothese. Die Phase-2-Pilotprojekte sollen sie für DACH-Kontext quantifizieren.
Kontextualisierte Ausspielung setzt voraus, dass der Kontext bekannt ist. Je nach Touchpoint gibt es dafür unterschiedliche Mechanismen, mit unterschiedlich viel Hebel für die Brand.
| Touchpoint | Kontextmechanismus | Hebel für die Brand | Status |
|---|---|---|---|
| Eigener Shop | Session, Suchanfrage, Profil, Referrer | Volle Kontrolle: Kontext bekannt, Ausspielung direkt steuerbar | ● lösbar |
| Agent-LayerChatGPT, Perplexity, Google AI | Vollständiger User-Prompt: reichster Kontext aller Touchpoints | Agent fragt via MCP/Protokoll kontextspezifische Daten ab. Brand liefert oder nicht | ● lösbar |
| Paid Search / PMax | Google kennt Suchkontext | Kontextspezifische Assets & Feed-Attribute pro Audience-Segment erhöhen Matching-Qualität | ● lösbar |
| Post-PurchaseE-Mail, App, Onboarding | CRM/CDP kennt Kaufhistorie | PIM-Daten fließen kontextspezifisch in Marketing Automation | ● lösbar |
| Touchpoint | Kontextmechanismus | Hebel für die Brand | Status |
|---|---|---|---|
| Retailer-PDPs via Content InjectionLoadbee, DemoUp Cliplister, Syndigo | Brand kontrolliert das Widget; Retailer-Umfeld ist bekannt | Kontextualisierung pro Retailer-Umfeld; nächste Stufe: dynamische, referrer-sensitive Inhalte. Strategischer Baustein der Y1-Loadbee-Kooperation. | ● lösbar, ausbaubar |
| MarktplätzeAmazon, Zalando, Otto | Kein direkter Zugang, aber Plattform-KI wird datenhungriger: Rufus (Amazon) produktiv mit 300 Mio. Nutzern, Walmart Sparky live, OTTO seit März 2026 | Reichere, multi-kontextuelle Feeds verbessern algorithmisches Matching; Brands ohne strukturierte Attribute fallen aus Empfehlungen heraus | ● wachsend |
| RetargetingCriteo, RTB | Feed-basiert; User-Kontext liegt beim Retargeter | Kontextspezifische Feed-Varianten ermöglichen differenziertes Creative-Matching | ◐ eingeschränkt |
| Touchpoint | Mechanismus | Aktueller Zustand | Status |
|---|---|---|---|
| Social CommerceInstagram, TikTok Shop | Plattform kennt Kontext, teilt ihn aber nicht | Feed-basiert möglich, Attribut-Tiefe limitiert | ◐ eingeschränkt |
| Influencer-Content | Kein standardisierter Datenkanal | Generische Briefings, keine systematische Kontextualisierung. Innovationsfeld, offen. | ○ ungelöst |
Die kaufentscheidungsrelevanten Touchpoints sind zu einem überraschend hohen Anteil kontextualisierbar: eigener Shop, Agent-Layer, Paid Search, Content Injection und angereicherte Feeds decken die entscheidenden Felder ab. Die Lücken (Social, Influencer) betreffen Bereiche, in denen die Brand ohnehin weniger Kontrolle hat.
Die Voraussetzung für alle Szenarien ist identisch: Produktdaten müssen in kontextspezifischen Bedeutungsschichten vorliegen: strukturiert, maschinenlesbar, ausspielbereit. Ohne diese Basis ist auf keinem Touchpoint etwas zu holen. Mit ihr auf fast allen.
Contextual Product Intelligence ist keine Pitch-Deck-Idee, sondern steht auf drei produktiv laufenden Assets, die zusammen eine integrierte Funnel-Maschine ergeben. Diese Kombination ist im DACH-Markt einzigartig und der härteste Reason-to-Believe für Kunden und Sales.
Zentrale Publikations- und Nurture-Plattform für Y1s PXM-Content. Mini-Teaser und Thesen-Artikel öffentlich zugänglich, vollständige Inhalte gegen Business-Email. Funktion im Funnel: Ziel für LinkedIn-Traffic, Top-of-Funnel-Qualifikation, Einstiegspunkt für den Explorer. Aggregierte Segment- und Dimensionsdaten sichtbar, individuelle Brand-Daten bleiben gegated.
Die eigenentwickelte Primärdatenbasis mit mehr als 700 bewerteten Brands über das PXM Maturity Model (sechs Dimensionen, 26 Experience Indicators). Registrierungsgeschützt. Brands sehen nach Email-Abgabe ihren Score, ihre Position im Segment, ihr Dimensionsprofil gegen den Segment-Durchschnitt. EI-Details und Reasoning bleiben als Stufe-3-Assets kostenpflichtig. Das ist der DACH-weit einzigartige Asset, auf dem die gesamte Content-Engine aufsetzt.
Produktionsreifes System zur Generierung publikationsfertiger Inhalte aus der Explorer-Datenbasis. Fünf Thought-Leadership-Formate (TL), drei Lead-Gen-Formate (LG), fünf Sales-Outreach-Formate (SO). Drei Disclosure-Stufen regeln sauber, welche Daten wo erscheinen: Stufe 1 öffentlich (aggregierte Patterns als TL-Content für Hub und LinkedIn), Stufe 2 gated (Brand Report als produktisiertes Deliverable), Stufe 3 kostenpflichtig (vollständige EI-Analyse in Quick-Scan und Deep-Assessment). Das macht aus der Datenbasis eine kontinuierliche Content- und Sales-Pipeline statt einer Einzelveröffentlichung.
Keine Generalistenberatung (Accenture, Valtech) und keine AI-Boutique hat eine vergleichbare DACH-Datenbasis. Keine PIM-Hersteller und keine Content-Injection-Player liefern strukturierte Brand-Reifegrad-Daten. Die Kombination aus eigener Datenbasis, Content-Engine und Disclosure-Logik ist das, was Y1 von jedem denkbaren Wettbewerber unterscheidet. Und genau diese Kombination ist die Grundlage jedes Angebots in Section 06.
Stufe 1, öffentlich. Aggregierte Patterns, Segment-Durchschnitte, Top-3-Namen mit Scores. TL-Formate auf PXI Hub und LinkedIn. Keine individuellen EI-Daten, keine Reasoning, keine Empfehlungen.
Stufe 2, gated. Individuelle Brand-Scores im Explorer (Lead-Qualifikation). Brand Report als produktisiertes Deliverable mit Stufe-2-Analyse und Segment-Einbettung. Keine Segment- oder Vertical-Reports als eigenständige Produkte. Die Inhalte laufen als öffentlicher TL-Content oder sind Teil des Brand Reports.
Stufe 3, das eigentliche Produkt. Vollständige EI-Analyse, Reasoning, konkrete Handlungsempfehlungen, Ist/Soll-Profile. Das ist, was wir verkaufen. Nie kostenlos, nie angedeutet, nie im Hub sichtbar.
Y1 produziert keinen Content. Y1 baut die Intelligenz zwischen Produktdaten und Touchpoint: Beratung, Konzeption und Implementierung der kontextsensitiven Ausspiellogik. Auf der Asset-Basis aus Section 05 entsteht ein sechsstufiger Funnel, der Awareness, Qualifikation, Produktisierung und Wertschöpfung sauber trennt.
Vom öffentlichen Content-Einstieg bis zur tiefen Implementierung. Jede Stufe hat klare Preislogik, klares Deliverable, klare Eskalationsbrücke zur nächsten Stufe. Der Übergang zwischen Stufen ist der entscheidende Mechanismus. Deshalb ist jede Stufe so gebaut, dass sie die nächste natürlich vorbereitet.
Öffentlicher Content aus der Content-Engine (TL-Formate): Segment-Pulse, Dimension-Deep-Dives, Thesen-Artikel, Vertical-Vergleiche. Distribution über LinkedIn, Hub, Blog. Ziel: Traffic, Thought-Leadership-Sichtbarkeit, Qualifikation durch Themenselbstselektion. Keine individuellen Brand-Daten, keine EI-Details.
Brand-spezifischer Score, Ranking im Segment, Dimensions-Radar gegen Segment-Durchschnitt. Zugang gegen Business-Email-Registrierung. Reine Stufe-1-Daten: keine EI-Details, keine Reasoning. Alternativ für Brands, die noch nicht im Explorer sind: On-Demand-Scoring als niederschwelliges Produkt (Quick-Score) mit definiertem Preispunkt.
Produktisiertes Deliverable für die einzelne Brand. Analyse auf Stufe-2-Niveau: Dimensionsprofil, Segment-Einordnung, Top- und Bottom-Performance-Muster, Vergleich gegen Segment-Leader. Keine EI-Details, keine Reasoning-Ketten, keine konkreten Handlungsempfehlungen. Die bleiben Stufe 3 und kommen über Quick-Scan oder Deep-Assessment. Segment- und Vertical-Kontextinformationen sind als Einbettungsschicht enthalten, nicht als separates Produkt. Segment- und Vertical-Insights an sich laufen als öffentlicher TL-Content über Hub und LinkedIn.
Produktisierte Tiefenanalyse der eigenen Brand: standardisierte Prompt-Sets, Citation-Tracking über ChatGPT, Perplexity, Google AI; Brand-Radar gegen Segment-Leader; Gap-Analyse; 60-Minuten-Debrief-Call. Deliverables: Brand-1-Pager (SO-1) und individueller Score-Teaser (LG-3). Laufzeit zwei Wochen. Produktisiert aus Content-Engine plus manueller Analyse.
Vollständiger Audit über fünf Dimensionen: Attributtiefe, Kontextvarianten, Maschinenlesbarkeit, Channel-Coverage, Agent Readiness. Verbindet AI-Readiness (Pain A) mit Performance-Diagnose (Pain B). Deliverables: Score, Gap-Analyse, priorisierte Roadmap, konkrete Implementierungsvorschläge auf Stufe-3-Niveau (vollständige EI-Analyse, Reasoning, Empfehlungen).
Konzeption und Implementierung kontextspezifischer Ausspiellogiken pro Touchpoint: Feed-Enrichment, Content Injection (Loadbee-Kooperation), PMax-Asset-Strategie, Shop-Personalisierung, MCP-Anbindung, Structured Data, maschinenlesbare Feeds. Der Hauptwertschöpfungsblock mit klarem Business-Case über ROAS-, Conversion-, Retouren- und AI-Citation-KPIs.
Die zwölf Formate aus der Content-Engine bespielen nicht nur Stufe 01 bis 03, sondern auch die Sales-Prozesse dahinter. SO-1 (Brand-1-Pager) und SO-2 (Segment-Briefing) sind interne Sales-Dokumente. SO-3 (Outreach-Sequenz) ist automatisierbares Lead-Nurturing nach jedem Explorer-Signup. SO-5 (Event-Deck) ist die Grundlage für K5 und jedes andere Bühnenformat. Diese Engine ersetzt konventionelles Content-Marketing und Sales-Enablement in einem.
Der Quick-Scan (Stufe 04) ist bewusst template-basiert und nicht tool-gestützt in der ersten Iteration: standardisierte Prompt-Sets, Scraping-Playbook, Report-Template aus der Content-Engine, manuelle Delivery durch TMPC. Vibe-coded, reproduzierbar, in zwei Wochen lieferbar. Ein dediziertes Tool kann im zweiten Schritt entstehen, sobald das Template eine zweistellige Anzahl Durchläufe hat und die wiederkehrenden Muster sichtbar sind.
Arbeitspositionierung zur internen Prüfung, nicht als Marketing. Jede Zeile ist eine Behauptung, die in Phase 1 belastbar werden muss.
Das integrierte Feld aus Datenarchitektur, Kontextlogik, Channel-Distribution und Messung ist im DACH-Mittelstand noch nicht besetzt. Das ist die These. Sie muss in Phase 1 belastbar gemacht werden.
Die strategische Argumentation lebt von konkreten Referenzen. Dieser Abschnitt bündelt, was im Markt heute bereits funktioniert, als Evidenz gegen den Einwand, Agentic Commerce sei ein Zukunftsthema.
| Player | Was läuft | Evidenz | Quelle |
|---|---|---|---|
| Amazon RufusFrontrunner · Q4 2025 | 300 Mio. aktive Nutzer, rund 12 Mrd. USD inkrementeller annualisierter Umsatz. +60 % Conversion-Uplift auf unterstützten Flows. | Geschätzte 25–35 % der täglichen Amazon-Suchen laufen Ende 2025 über Rufus | ● Earnings Call |
| Walmart Sparkyseit Juni 2025 | In-App-Agent mit ChatGPT Instant Checkout über ACP (ca. 200.000 Produkte shoppbar). Testet "Sponsored Prompts" als neue Retail-Media-Fläche. | Erster Blick, wie Werbebudgets in der Agentenwelt aussehen | ● live |
| KlarnaDACH-relevant | GPT-4-basierter Shopping- und Service-Assistent. Leistet laut OpenAI-Case die Arbeit von 700 Vollzeit-Agenten, mit entsprechenden Kosteneffekten. | Marktnah in DACH, das zitierfähigste Consumer-Beispiel für deutsche Retailer | ● live |
| Zalandoseit über einem Jahr | Eigener KI-Assistent produktiv im Einsatz. Gehört zu den europäischen Referenzen für On-Site-Agenten mit Markenkontrolle. | Europäischer Leuchtturm für Eigenlösungen | ● live |
| OTTOMärz 2026 | Gemini-basierter Shopping-Assistent in der App ausgerollt. Nach gescheitertem ersten Versuch jetzt Version zwei auf Google-Stack. | Frisches DACH-Referenzbeispiel | ● live |
| Player | Was läuft | Evidenz | Quelle |
|---|---|---|---|
| Shopify-MerchantsGlossier, SKIMS, Spanx, Vuori | 15× YoY-Wachstum bei Orders aus AI-Suchen seit Januar 2025 über alle Shopify-Merchants hinweg. DTC-Marken als Launch-Partner für ChatGPT Instant Checkout. | Konkrete DTC-Marken mit messbarem Agent-Umsatz, noch auf kleiner Basis | ● live |
| Unilever, P&GCPG via Google Cloud | "Invisible Shelf"-Positionierung. Reifegrad bisher eher Discovery/AEO, weniger Transaktion. | Strategie-Level live, Transaktion noch nicht | ◐ Discovery-Stage |
| Eigene On-Site-AgentenBrands jenseits von Amazon/Walmart | Bain-Zahl 3× Vertrauen legt das Potenzial nahe. Bisher kaum Maßstäbe gesetzt außerhalb der großen Plattformen. | Größte freie Fläche aktuell | ○ offen |
| Player | Was läuft | Evidenz | Quelle |
|---|---|---|---|
| Pactum AILeuchtturm Agent-to-Agent | Autonome B2B-Verhandlung live bei Walmart, Maersk, Otto Group, Henkel, Linde, Vodafone, Deutsche Telekom, Rolls-Royce u.a. >60 Fortune-2000-Enterprises. | Walmart: 3 % Ersparnis, 35 Tage längere Zahlungsziele, 75 % Lieferanten-Präferenz für Bot. Größter autonomer Deal: ~100 Mio. USD. Schnellster: 87 Sekunden. | ● produktiv |
| SAP Ariba mit Joule-Agentsseit Q1 2026 | General Availability. RFP-Erstellung 70 % schneller, Marktanalyse 90 % schneller. | IBM meldet RFx-Lead-Time halbiert bei besserer Policy-Compliance | ● live |
| Henkelproduktiver Pactum-Einsatz | Autonome Anbahnung für preis-volatile Produktkategorien. Für einen deutschen Industriekonzern das Case-Study-Material schlechthin. | Direkter DACH-Bezug · öffentlich dokumentiert | ● produktiv |
| commercetoolsACP-Launch-Partner | Seit September 2025 offizieller ACP-Launch-Partner. Referenzkunden BMW und Sephora setzen die Composable-Foundation für Agent-Readiness bereits um. | Für B2B-Hersteller mit commercetools-Stack direkter Weg in UCP/ACP-Compliance | ● live |
Nicht alles, was angekündigt ist, läuft rund. OpenAIs Instant Checkout in ChatGPT ist seit September 2025 live, aber CNBC berichtete im März 2026 von einer Strategie-Korrektur: statt In-Chat-Checkout jetzt eher Redirect-to-Merchant-App. Stand März 2026 nur rund 30 Shopify-Merchants tatsächlich live, Onboarding laut Forrester "arduous". Das ACP-Protokoll funktioniert, die Operationalisierung ist schwieriger als versprochen. Für CFO-Gespräche: das sauber framen, sonst wird die Zahl angreifbar.
Shopware hat im Juli 2025 die Agentic Commerce Alliance gegründet. Stand Januar 2026 mit Trusted Shops, Nexi, PayPal, Klaviyo, ChannelEngine, valantic, basecom, Pimcore, FactFinder/Omikron, Strix und Mollie. Explizit als Gegenpol zu Amazon, Google und OpenAI positioniert: offene Standards, Datensouveränität, Händler-Autonomie. Das ist der politisch-strategische Gegenentwurf aus dem DACH-Raum zum US-dominierten UCP/ACP-Ökosystem, und für Y1 eine strategisch relevante Entscheidung, wie nah wir an diese Allianz heranrücken.
Drei Schlussfolgerungen aus der Evidenzlage:
Pain A bringt den Hype-Vorteil und den kurzen Sales-Cycle. Pain B trägt die eigentliche Wertschöpfung und Stickiness. Die Tier-Logik nutzt beide gezielt, nicht parallel, sondern sequenziell.
Der Hype um KI-Agenten und AI-Suche ist real. CMOs haben Budget-Töpfe dafür, der Sales-Zyklus ist kurz, die Wettbewerbsdichte in DACH ist niedrig. Produktisierter Quick-Scan als Festpreis-Einstieg bei 5 k€, Deep-Assessment bei 15 bis 20 k€.
Funktion im Portfolio: Volumen, Referenzen, Lead-Generierung über Thought Leadership. Der Quick-Scan ist kein Profit-Center, sondern ein Qualifikationsinstrument, und es öffnet das Gespräch über die Produktdaten-Architektur, das sonst nicht zustande käme.
Der substantielle Business-Case. Im Deep-Assessment wird Pain B sichtbar gemacht: die Diagnose, wo Content-Kontext-Mismatch messbar Performance kostet. Aus dem Assessment wird die Implementierung: 25 bis 80 k€ Konzeption und Umsetzung.
Funktion im Portfolio: Margenstarke, stickige Kundenbeziehungen mit Follow-up-Logik über ROAS- und Conversion-KPIs. Das ist der Umsatzträger, während Pain A die Leads bringt.
Ein klassischer Pain-B-Pitch ohne Pain-A-Vorlauf hat ein Edukations-Problem: Entscheider müssen erst verstehen, warum Produktdaten-Architektur überhaupt Performance-relevant ist. Ein Pain-A-Einstieg umgeht das. Der Hype liefert die Aufmerksamkeit, der Quick-Scan liefert die ersten Daten, und aus diesen Daten entsteht organisch der Pain-B-Case. Die Entscheider kommen über den Trend und bleiben über den Business-Case.
Für Y1 strategisch entscheidend: die Infrastruktur ist für beide Pains identisch. Kontextspezifische Produktdaten, strukturiert und maschinenlesbar, lösen AI-Sichtbarkeit und Performance-Hebel. Ein Kunde, der über Pain A einsteigt, bekommt die Datenbasis, die Pain B direkt adressierbar macht, ohne zweite Grundlagen-Investition.
Tier 1 funktioniert nur, wenn das AI-Readiness-Assessment echt produktisiert ist: standardisierte Prompt-Sets, reproduzierbares Scraping, Report-Template, Sales-Kit, Playbook für die Delivery. Das ist ein Build-Case von geschätzt 20 bis 30 Personentagen über die nächsten zwei Quartale. Ohne dieses Invest bleibt Pain A ein Projektgeschäft mit individueller Delivery, und verliert damit seinen strategischen Vorteil gegenüber klassischen Beratungsangeboten.
K5 bündelt das DACH-E-Commerce-Entscheider-Publikum in einer Woche. Statt die Messe als Launch zu inszenieren, nutzen wir sie als das wertvollste Validierungsinstrument, das verfügbar ist: echte Prospects, echte Preisreaktionen, echte Buying-Center-Signale innerhalb weniger Tage. Das Papier trifft keine Launch-Entscheidung. Es beschreibt, wie K5 die PMF-Hypothesen am schnellsten härtet oder widerlegt.
Welche Narrativ-Hypothese zieht am meisten Dialog? Welche Segmente sind überdurchschnittlich interessiert (Signups, Kommentare, Direktnachrichten)? Welche Formate konvertieren von Post zu Hub-Besuch zu Explorer-Registrierung? Diese Signale fließen direkt in die Positionierung für die Messe. Richtwert für erste Orientierung: 200 bis 500 Explorer-Registrierungen, 30 bis 60 persönliche Messe-Einladungen mit Bestätigung.
Welche Brand-Typen (Segmente, Größen, Reifegrade) bleiben am Booth stehen? Welche Gesprächseinstiege funktionieren, welche nicht? Welche Preis-Indikationen geben Entscheider, ohne dass wir einen Preis nennen? Wie viele konkrete Quick-Scan-Anfragen, Deep-Assessment-Gespräche, Implementierungs-Signale? Richtwert für erste Orientierung: 60 bis 100 qualifizierte Booth-Gespräche, 10 bis 20 konkrete Scan- oder Assessment-Anfragen, 2 bis 3 Implementation-Leads in der Pipeline.
Konversionsrate von Messe-Kontakt zu bezahltem Engagement, realisierter Preispunkt pro Deliverable (Scan, Report, Assessment), Qualität der Buying-Center-Signale (wer entscheidet, wer bezahlt), Qualität der Implementation-Leads. Richtwert für erste Orientierung: 15 bis 25 % Konversion der Booth-Kontakte in bezahlte Deliverables, mindestens 2 Deep-Assessments und 1 Implementation-Signal aus dem K5-Pool. Die realen Zahlen zählen, nicht die Zielmarken. K5 ist genau dafür da, diese Werte zu kalibrieren.
Vier Tage mit DACH-E-Commerce-Entscheidern in konzentrierter Form erreichen, wofür in normalen Quartalen 30 bis 50 qualifizierte Gespräche nötig wären. Das Setting ist zudem kontrolliert: Y1 gibt den Rahmen vor, die Entscheider kommen vorbereitet und messen Y1 an konkreten Aussagen. Jedes Gespräch am Booth, jede Frage nach der Keynote, jede abgelehnte Preisindikation ist ein Datenpunkt, der die PMF-Hypothesen aus Section 11 härtet oder widerlegt. K5 ersetzt keine Validierungsphase, aber es beschleunigt sie um Wochen.
Bis zum Start der Pre-K5-Phase müssen drei Dinge produktionsreif sein: (1) PXI Hub mit mindestens fünf TL-Formaten live und stabiler Content-Ausspielungs-Logik, (2) PXM Explorer mit stabilem Lead-Gate (Email plus Profil) und CRM-Anbindung, (3) Quick-Scan-Template, Deep-Assessment-Playbook und Sales-Kit so weit vorbereitet, dass Angebote aus dem Booth heraus noch am selben Tag verschickt werden können. Ohne diese Voraussetzung wird K5 zum Thought-Leadership-Auftritt ohne Erkenntnisgewinn.
Für jede Phase ist definiert, was die Hypothese bestätigt, und was sie tötet. In 20 Wochen steht eine belastbare Antwort.
Mindestens 4 der 12 Gespräche müssen mit Leads außerhalb des Y1-Bestandskundennetzwerks geführt werden, um Confirmation-Bias durch warme Beziehungen auszuschließen.
Nach den ersten 5 Quick-Scans kurze interne Review-Session: Wo fragen Kunden Gleiches? Welche Report-Teile werden gelobt, welche ignoriert? Welche Prompt-Sets liefern robuste Ergebnisse, welche nicht? Iteration am Template direkt in den laufenden Lieferprozess einbauen.
Die Implementation-Angebote werden in zwei Scope-Varianten platziert: 25–40 k€ (Fokus-Scope, ein Touchpoint) und 60–80 k€ (Multi-Touchpoint). Ziel ist, die Korrelation zwischen Deal-Größe und Buying-Center-Struktur zu verstehen. Abschluss der Großprojekte ist nicht Erfolgskriterium der Phase, aber ihr Ausbleiben ist ein Signal zur Scope-Justierung.
Das sind die Punkte, an denen dieses Papier nicht weiter geschrieben werden kann, bevor das Team drei bis vier Stunden darüber gesprochen hat.
„Tailor-Made Product Content“ beschreibt die Y1-Vision. Der Markt kauft aber kein Prozess-Label, sondern ein Ergebnis. Arbeitsvorschlag: Contextual Product Intelligence. Entscheidbar in dieser Runde.
Geben wir bei Pain B eine Größenordnung öffentlich an, etwa „typisch zweistelliger ROAS- oder Conversion-Uplift“, oder bleiben wir beim Diagnoseversprechen ohne Zahlen, bis eigene Fallzahlen vorliegen? Diese Entscheidung bestimmt die Schärfe jeder Folgekommunikation.
Die engere Zusammenarbeit ist eingeleitet. Die strategische Entscheidung dahinter ist offen: Bleibt Y1 Implementierungs- und Strategiepartner auf Loadbee-Technologie, oder bauen wir eine technologieunabhängige Content-Injection-Kompetenz? Beides ist tragfähig, aber nicht gleichzeitig.
Die Service-Architektur ordnet jedem Service einen klaren Delivery-Lead zu (durchgehend TMPC). Bestätigt die Runde das, oder braucht es ein BU-übergreifendes Practice Lead für Contextual Product Intelligence?
Die Entscheidung für einen produktisierten Einstiegsservice steht. Offen ist die operative Umsetzung: Wer baut die Prompt-Sets, das Scraping-Playbook, die Report-Templates und das Sales-Kit? Realistische Schätzung: 20 bis 30 Personentage über zwei Quartale, plus laufende Iteration. Braucht es dafür eine dedizierte Person, ein kleines Team oder eine interne Sprint-Logik? Ohne diese Klärung bleibt der Quick-Scan ein Konzept auf Papier.
Die Überlappung mit Performance-Marketing-Agenturen muss positioniert werden. Option A: Datenlieferant (Feed & Assets) im Auftrag der Brand, kooperativ mit Agenturen. Option B: Strategischer Berater, der Agenturen mitsteuert. Beides hat unterschiedliche Delivery- und Sales-Profile.
Als Innovationsfeld aktiv beackern (Tech-Entwicklung, Research, externe Partnerschaften) oder bewusst parken, bis der Markt reif ist? Kapazität ist knapp, und die meisten Brands priorisieren es nicht.
Google UCP und OpenAI/Stripe ACP sind de-facto-Standards mit US-Dominanz. Die Agentic Commerce Alliance (Shopware et al.) positioniert sich als DACH-Gegenentwurf mit Datensouveränitäts-Argument. Y1 muss entscheiden: rein technologiepragmatisch (alle Protokolle bedienen), politisch-strategisch (Nähe zur Alliance suchen), oder mit klarer Differenzierungslogik für bestimmte Kundensegmente? Die Antwort hat direkte Konsequenzen für Partnerschaften, Positionierung und Wunsch-Referenzkunden.
Die belastbarste Evidenz für Agentic Commerce liegt aktuell im B2B-Segment: Pactum mit Henkel, Otto Group, Deutsche Telekom, Rolls-Royce; SAP Ariba Joule in GA. Das bisherige Papier fokussiert auf B2C-Brands. Öffnen wir das Angebot für B2B-Hersteller (Agent-to-Agent-Vertriebslogik, CPQ-Integration, PIM/PXM mit kontraktkonformen Preisen) oder halten wir den Scope bewusst eng, um in der Pilotphase nicht zu breit aufzustellen?