De snelheid waarmee data door je organisatie stroomt, bepaalt grotendeels het succes van gebruik van die data. Directe toegang tot actuele, relevante informatie zorgt voor de beste en snelste besluitvorming. In een omgeving waar snelle data het verschil maakt tussen een succesvolle productie en een verspilling van inzet en grondstoffen, is het voorkomen van hoge data latency van cruciaal belang. Wat kun je als organisatie doen om het te voorkomen?
Dat is niet de minste uitdaging. De groeiende berg data is niet per se een resultaat van mensen die meer data genereren. De gegevens komen met name van systemen binnen organisaties. Denk daarbij aan het Internet of Things, waarbij allerlei machines en sensoren zelf data creëren en verzenden. Die data is vaak niet ‘zomaar’ bruikbaar; niet elke computer spreekt namelijk dezelfde taal. In 2013 waren er nog ‘slechts’ 162 verschillende data formats. Zes jaar later was dat al verdubbeld, naar 341 in 2019. Toch zijn organisaties afhankelijk van gebruik van al die data, die in verschillende silo’s liggen maar toch vergeleken of gecombineerd moeten worden. Dat helpt de verwerkingssnelheid niet, terwijl we op zoek zijn naar een zo laag mogelijke data latency. Daarom de vraag: hoe lossen organisaties dat op?
Een modern, overkoepelend dataplatform kan uitkomst bieden. Robert Eggermont, salesmanager bij InterSystems, legt in drie punten uit hoe zo’n dataplatform ervoor zorgt dat data zo snel mogelijk door de organisatie stroomt.
1. Alle data is welkom
Een dataplatform dat zich focust op een zo laag mogelijke data latency, zorgt ervoor dat alle data zo eenvoudig mogelijk te vinden is. Dat houdt in dat alle verschillende soorten gegevens in dit overkoepelende dataplatform te vinden zijn, en dat je geen complexe programma’s hoeft te gebruiken om verschillende datasilo’s op te zoeken en daar data uit te oogsten. Het is logisch dat je minder latency krijgt als je minder verschillende programma’s in je systeem hebt draaien.
2. Interoperabiliteit en analyse
Interoperabiliteit is een enorm hoge prioriteit voor moderne dataplatformen. Wat heb je er immers aan om alle verschillende dataformats op te halen en in te laden, om vervolgens lastige omwegen te moeten zoeken om die data samen te brengen en bruikbaar te maken? Stel, je hebt een machine die data genereert van format X, en je machine learning algoritme heeft format Y als input nodig. Je platform zorgt voor een soort vertaalslag die de verschillende systemen samen kan laten werken. Analyse van data, en het trekken van conclusies die je organisatie verder helpen, is namelijk alleen mogelijk als de data vergelijkbaar is. Een dataplatform helpt je me het behouden van overzicht, en regelt dat de verschillende soorten data elkaar verstaan. Zo behoud je een zo laag mogelijke data latency.
3. Betrouwbaarheid
De ergste vorm van latency is misschien wel de vertraging die ontstaat door systemen die ‘downtime’ hebben en simpelweg niet werken, of door andere technische mankementen in de programma’s. Hoe meer verschillende systemen bij een dataketen betrokken zijn, des te groter is de kans op deze kwalen. De betrouwbaarheid van één bewezen platform voorkomt zulke kostbare downtime.
Van inzicht naar actie
Data ophalen, inladen en analyseren heeft alleen zin als die data als input gaat dienen voor een (liefst belangrijk) bedrijfsproces. Op z’n simpelst gezegd brengt succesvol datagebruik je van inzicht naar actie. En de beste manier om dat te doen is om een proces te vinden waarin dat proces schaalbaar is, dus geen aparte oplossing per toepassing is. Het hoort een flexibele oplossing te zijn, een omgeving waarin je niet aan een dataformat of licentie gebonden bent. Die interoperabiliteit is immers van cruciaal belang. Er is data genoeg in de wereld, en dataplatforms zijn er om succesvol van die data gebruik te maken.
14 en 15 mei 2025 Organisaties hebben behoefte aan data science, selfservice BI, embedded BI, edge analytics en klantgedreven BI. Vaak is het dan ook tijd voor een nieuwe, toekomstbestendige data-architectuur. Dit tweedaagse seminar geeft antwoord op...
19 t/m 21 mei 2025Praktische driedaagse workshop met internationaal gerenommeerde trainer Lawrence Corr over het modelleren Datawarehouse / BI systemen op basis van dimensioneel modelleren. De workshop wordt ondersteund met vele oefeningen en praktij...
20 en 21 mei 2025 Deze 2-daagse cursus is ontworpen om dataprofessionals te voorzien van de kennis en praktische vaardigheden die nodig zijn om Knowledge Graphs en Large Language Models (LLM's) te integreren in hun workflows voor datamodelleri...
22 mei 2025 Workshop met BPM-specialist Christian Gijsels over AI-Gedreven Business Analyse met ChatGPT. Kunstmatige Intelligentie, ongetwijfeld een van de meest baanbrekende technologieën tot nu toe, opent nieuwe deuren voor analisten met innovatie...
17 t/m 19 november 2025 De DAMA DMBoK2 beschrijft 11 disciplines van Data Management, waarbij Data Governance centraal staat. De Certified Data Management Professional (CDMP) certificatie biedt een traject voor het inleidende niveau (Associate) tot...
Alleen als In-house beschikbaar Het Logical Data Warehouse, een door Gartner geïntroduceerde architectuur, is gebaseerd op een ontkoppeling van rapportage en analyse enerzijds en gegevensbronnen anderzijds. Een flexibelere architectuur waarbij snell...
Deel dit bericht