18-05-2017

HPE onthult grootste single-memory computer ter wereld voor Big Data-tijdperk

Deel dit bericht

Hewlett Packard Enterprise heeft de grootste single-memory computer ter wereld geïntroduceerd. Dit is de nieuwste mijlpaal in het grootste Research & Development traject van HPE ooit: The Machine. Het onderzoeksproject richt zich op de ontwikkeling van Memory-Driven Computing, een compleet nieuwe architectuur voor het opkomende Big Data-tijdperk.

Volgens CEO Meg Whitman van Hewlett Packard Enterprise liggen de volgende grote wetenschappelijke doorbraak, de innovaties die de IT veranderen en de technologie die levens gaat veranderen verscholen in de enorme hoeveelheden data die we dagelijks creëren. “Om deze innovaties mogelijk te maken, kunnen we niet blijven leunen op technologieën uit het verleden. We hebben een computer nodig voor het Big Data-tijdperk.”
Het onthulde prototype bevat 160 terabyte geheugen en kan gelijktijdig werken met data uit omgerekend ongeveer 160 miljoen boeken, acht keer zo veel als alle boeken uit de Library of Congress. Het is nog nooit mogelijk geweest om complete datasets van dit formaat in een single-memory system te bewaren en te bewerken. En dit is slechts een glimp van de enorme potentie van Memory-Driven Computing.

Oneindige bron van geheugen
Op basis van het huidige prototype verwacht HPE de architectuur eenvoudig te schalen naar een single-memory system op exabyteschaal en in later stadium naar een vrijwel oneindige bron van geheugen: 4.096 yottabytes. Dit is 250.000 keer meer dan het complete digitale universum op dit moment. Met deze hoeveelheid geheugen is het mogelijk om op hetzelfde moment met ieder digitaal medisch dossier op aarde, alle data van Facebook, iedere rit van de zelfrijdende auto's van Google en iedere dataset uit ruimteonderzoek te werken. Dit brengt nieuwe mogelijkheden en antwoorden op uitzonderlijk tempo aan het licht.

Tijdbesparing
HPE gelooft dat de technologie-industrie met Memory-Driven Computing voor vooruitgang kan zorgen in alle aspecten van de samenleving. De ontwikkelde architectuur kan op elke computercategorie worden toegepast, van apparaten op ‘the intelligent edge’ (de rand van het netwerk) tot supercomputers. Memory-Driven Computing zet het geheugen - en dus niet de processor - centraal in de computingarchitectuur. Door de inefficiëntie van interactie tussen geheugen, storage en processors in traditionele systemen te elimineren, bespaart Memory-Driven Computing de benodigde tijd om complexe problemen te verwerken. Hiermee wordt realtime-intelligence mogelijk.

Technische specificaties
Het nieuwe prototype bouwt voort op de resultaten van het onderzoeksproject van The Machine waaronder:
• 160 TB shared memory, verspreid over 40 fysieke nodes, met elkaar verbonden door een high-performance fabric protocol.
• Een geoptimaliseerd op Linux gebaseerd besturingssysteem (OS) dat draait op Thunder X2 van Cavium.
• Photonics/Optical communication links zijn online en operationeel, inclusief de nieuwe X1 photonics module.
• Softwareprogrammeringstools om alles te halen uit grote hoeveelheden persistent memory.

Meer informatie: Memory-Driven Computing en het onderzoeksproject The Machine.

Partners