I andra delen av Implema Talks med fokus på SAP BDC och dataplattformar, förklarar Susanne Söderholm och Johan Söderström två sätt att koppla SAP-data till moderna dataplattformar.
Antingen tar man in non SAP-data i SAPs miljö via SAP Business Data Cloud med modern data sharing istället för tunga batch jobs. Eller så delar man SAP-data till en extern dataplattform som Databricks eller Snowflake, där analytics och AI hålls separerat från affärssystemen.
Susanne lyfter att den externa modellen ofta ger mer flexibilitet vid många datakällor, flera länder eller M&A, och att security, governance och compliance är avgörande för att skapa en gemensam sanning och bli AI ready.
I det här avsnittet av Implema Talks tar Johan Söderström och Susanne Söderholm nästa steg i serien om data och analytics. Fokus ligger på något många organisationer brottas med just nu. Hur kopplar man ihop SAP-data med en modern dataplattform och samtidigt förenklar arkitektur, kostnad, governance och AI readiness. Hur underlättar SAP BDC för företag med SAP fokus?
Susanne Söderholm, Business Area Manager för BI, Data & Analytics på Implema, beskriver två huvudspår som ofta fungerar bäst i praktiken.
I korthet:
Två vägar: Antingen samlar du non SAP-data i SAPs miljö via SAP Business Data Cloud, eller så delar du SAP-data till en extern dataplattform.
Extern dataplattform passar ofta bäst när du har många källor, flera länder eller M&A och vill hålla analytics och AI separat från affärssystemen.
Modern data sharing ersätter tunga batch jobs och gör det enklare att styra åtkomst, security, compliance och skapa en gemensam sanning.
De flesta företag har inte längre en enda “sanning” i ett enda system. SAP kan vara kärnan i ERP. Samtidigt finns data i CRM, e-handel, produktion, HR, logistik, IoT, partners och externa datakällor. När kraven på snabbare analys, AI och bättre beslutsstöd ökar, blir frågan akut. Var ska analytics-kapaciteten ligga? I SAP eller i en extern dataplattform?
Susanne beskriver två huvudsakliga sätt att bygga en modern dataarkitektur.
Den här vägen passar ofta organisationer som vill samla mer i SAPs ekosystem och arbeta därifrån. Poängen är att undvika tunga batch jobs och i stället använda modern sharing och smartare kopplingar mellan källor och plattform.
Det gör att SAP kan bli en plats där fler datakällor möts, utan att man bygger stora, dyra och svårförvaltade integrationskedjor.
Det andra spåret är att låta SAP vara en av flera källor. Sedan gör man analytics och AI i en extern plattform som Databricks eller Snowflake, och på sikt även Microsoft Fabric när det passar kundens miljö.
Susannes “flavor” är tydlig här. I många fall blir det enklare och mer framtidssäkert att separera analytics från affärssystemen så långt som möjligt. Särskilt i organisationer som köper och säljer bolag, eller som har flera ERP-system över tid. Då vill man kunna “turn on or turn off” data, utan att behöva bygga om kärnsystemen varje gång strukturen ändras.
Samtalet landar i ett igenkännbart problem. Ett ERP riskerar att bli överlastat med datapunkter och logik. För mycket special, för mycket “allt i samma låda”. Det skapar komplexitet, kostnad och låser förändringstakten.
Johan beskriver det som att man kan “dip into the data lake” för att hitta nålen i höstacken. Transformation och förädling kan göras när man vet vad man behöver. Inte som ett jättelyft innan man ens vet vilka frågor som är viktigast.
Många företag har redan massor av data lagrad i en datalake eller dataplattform. När någon ställer en affärskritisk fråga behöver du inte först bygga en stor, tung och perfekt datamodell som “förädlar allt”. I stället kan du börja med att plocka ut ett relevant utsnitt av datan, alltså “dip into the data lake”, för att snabbt hitta signaler, avvikelser eller svar. Det är “nålen i höstacken”.
När du väl vet vilka frågor som faktiskt är viktiga och vilken data som behövs, då gör du den tunga transformationen och bygger mer robusta pipelines, modeller och KPI-definitioner. Poängen är att undvika ett stort förarbete som kostar tid och pengar, men som riskerar att optimera fel saker eftersom du inte vet exakt vad verksamheten behöver ännu.
En nyckel i avsnittet är skiftet från klassisk serial copying till modern data sharing.
Istället för att flytta och duplicera data i flera led, kan du ofta “titta på” data via en kontrollerad delning. Det kan ge:
lägre kostnad för data movement och storage
enklare arkitektur
snabbare time to insight
bättre förutsättningar för AI readiness
Susanne lyfter också en viktig aspekt som ofta missas i diskussionen. Security rules. Vem får se vad. På radnivå, rollnivå och behovsnivå. Det är avgörande för att compliance, ownership och förtroende ska hålla när man delar data över plattformar.
Här är en praktisk tumregel baserat på resonemanget i videon.
Välj spår 1, SAP Business Data Cloud som samlingspunkt, när:
du vill samla mer i SAPs ekosystem
du har tydlig SAP-centrisk styrning och roadmap
du vill undvika tung batch integration och modernisera kopplingarna
Välj spår 2, extern dataplattform, när:
du har många källor och vill vara plattformsneutral
du vill separera analytics och AI från affärssystemen
du har föränderliga koncernstrukturer, M&A, flera ERPs eller snabb omställning
du vill bygga en “one single truth” som lever längre än enskilda systembyten
Vill du veta vilken väg som passar er. SAP Business Data Cloud som samlingspunkt, eller en extern dataplattform för analytics och AI. Hör av dig så kör vi en kort workshop där vi mappar datakällor, use cases, governance och målbild.
Vad är skillnaden mellan att ta in data i SAP och att dela data ut från SAP?
Att ta in data i SAP innebär att SAP-miljön blir navet. Att dela data ut innebär att SAP är en källa och analytics sker i en extern dataplattform.
Varför vill många separera analytics och AI från ERP?
För att minska komplexitet i affärssystemen och göra analytics mer skalbart, flexibelt och enklare att förändra vid nya bolag eller nya källor.
Vad behöver man säkra när man delar data mellan plattformar?
Governance, access rules, radnivå-säkerhet, compliance och tydligt ownership. Rätt person ska se rätt data.
00:00 Intro. Data sources, data lakes och att förenkla begreppen
00:29 Susanne. Varför data och analytics alltid förändras
00:55 SAP kommer in i en redan mogen marknad
01:23 Databricks, Snowflake och Microsoft. Hur ska man tänka
01:38 Två vägar. In i SAP-miljön, eller ut till extern plattform
02:40 Varför analytics ofta bör ligga utanför affärssystemen
03:32 M&A-scenariot. Enklare att slå på och av data
03:44 När ERP blir överlastat. För många datapunkter
04:31 SAP öppnar upp. Kostnad och effektivitet blir bättre
04:56 AI readiness. Varför Databricks och Snowflake ofta passar väl
05:30 Security rules. Governance och rätt åtkomst
05:52 Compliance och ownership. Varför många tvekar
06:12 Wrap. Nästa avsnitt om use cases
Get in touch with our team – we’re happy to help!
Whether you have a question, want to learn more about our solutions, or are simply curious how we can support your business – we’d love to hear from you.