24-03-2025 Door: Rein de Jong

Generatieve AI moet privé worden om te kunnen floreren

Deel dit bericht

AI ontwikkelt zich razendsnel. De laatste jaren zijn alle beschikbare open en gesloten modellen enorm gegroeid en zijn de applicatie-architecturen geëvolueerd van RAG naar agentisch. Eén uitdaging blijft echter hardnekkig aanwezig: het combineren van bedrijfseigen data en context met generatieve AI-modellen. De beste toekomstbestendige oplossing daarvoor is private AI.

Wat is private AI?
Private AI verwijst naar het vermogen om eigen data te gebruiken om AI-modellen, applicaties en agenten te ontwikkelen en te gebruiken, ongeacht of ze in de openbare cloud of on-premises infrastructuur worden gebruikt. Uiteraard zonder dat gevoelige bedrijfsinformatie of inzichten op enigerlei wijze buiten de organisatie worden gedeeld.

Wanneer AI privé wordt gebouwd, worden alle trainingsdata, configuraties en resulterende verfijnde modellen binnen de eigen beveiligde infrastructuur gehouden. Alleen dan is elke stap van het maken van modellen volledig onder controle te houden en datalekken te voorkomen.

Als AI privé wordt uitgevoerd, bevinden ook alle eindpunten van gebruikte AI-modellen zich binnen de eigen beveiligde infrastructuur. Zo blijven zowel de prompts en context die naar de modellen worden verzonden als de ontvangen antwoorden binnen de eigen bedrijfsomgeving. Private AI is de volgende AI-innovatie om te garanderen dat er geen gevoelige informatie lekt.

Basisprincipes van private AI
Een platform voor private AI moet op een open basis worden gefundeerd, de mogelijkheid hebben om zowel openbare als on-premises infrastructuur te benutten en een naadloze integratie hebben in de data- en AI-levenscyclus. Dit betekent onder andere:

1. Open source is de basis voor private AI
Het momentum achter open-source AI is onmiskenbaar. Vroege modellen zoals BLOOM en Falcon bewezen dat open-source AI het potentieel had om te concurreren met propriëtaire alternatieven, in zowel schaalbaarheid als capaciteit. Dit maakte de weg vrij voor modellen zoals Llama, waardoor moderne taal-AI binnen bereik kwam van organisaties die graag oplossingen op maat willen maken voor hun unieke behoeften. Tegenwoordig blijven ontwikkelingen zoals DeepSeek grenzen verleggen op het gebied van codegeneratie, redenering en operationele efficiëntie. Maar dit is slechts het begin. De open-sourcecommunity floreert op iteratie en de modellen van morgen gaan de lat hoger leggen, kleiner, sneller en gespecialiseerder worden.

Cloudera AI is ontworpen om continue innovatie te omarmen. Gebruikers daarvan kunnen elk open-sourcemodel adopteren, of het nu een vroeg model is als Bloom en Falcon, een veelzijdig werkpaard zoals Llama, of een geavanceerd redeneermodel zoals DeepSeek. Cloudera’s platform maakt naadloze integraties tussen AI-modelgeneraties mogelijk, zodat de noodzaak voor kostbare infrastructuurupgrades wordt geëlimineerd. Veel organisaties ontwikkelen al workflows op Cloudera, voor het maken van samenvattingen met LLM’s, tot het gebruiken van geavanceerde modellen voor uitdagingen zoals code-optimalisatie en beslissingsautomatisering.

Met hetzelfde platform leggen ze een basis voor de multimodale AI-toepassingen van morgen, waarbij modellen tekst, audio en visuele invoer combineren om complexe vraagstukken op te lossen waarvoor ooit geïsoleerde tools en teams nodig waren. Deze wendbaarheid is opzettelijk. Door elke fase van de open-sourcereis te ondersteunen, kunnen gebruikers kansen benutten, waardoor hun klanten de vrijheid krijgen om te experimenteren, te schalen en AI-investeringen compromisloos toekomstbestendig te maken.

2. AI-rekenkracht naar data brengen
Het transformatieve potentieel van AI is gebaseerd op een eenvoudig principe: modellen zijn net zo krachtig als de data die ze voeden. Als data- en AI-systemen geïsoleerd werken, ontstaan er uitdagingen. Data die is opgeslagen in gescheiden systemen, worden moeilijk toegankelijk, wat leidt tot vertragingen in inzichten, kwetsbare pijplijnen en modellen die de benodigde realtime context missen voor nauwkeurige beslissingen. Het verplaatsen van data tussen verschillende tools verhoogt ook het risico, wat de beveiliging en governance in gevaar brengt.

Cloudera verenigt data en AI in één samenhangende levenscyclus. Het Cloudera-platform en de Cloudera AI-services zijn ontwikkeld om te werken als één integraal systeem. Daarbij stroomt data naadloos in AI-workflows: beheerd, veilig en geoptimaliseerd voor de beste prestaties. Gedeelde metadata, beveiligingsbeleid en rekenbronnen elimineren kostbare dataduplicatie en -verplaatsing. Elke AI-voorspelling is dan terug te leiden naar de bron, wat de transparantie en het vertrouwen vergroot.

Deze integratie is de kern van het ontwerp van Cloudera. Door de data- en AI-levenscyclus te verenigen, blijven modellen up-to-date met de nieuwste informatie, terwijl ze voldoen aan strikte toegangscontroles en auditvereisten. Organisaties stappen over van experimenteren met AI naar het op grote schaal implementeren ervan, waarbij ruwe data wordt omgezet in bruikbare resultaten. Het resultaat? AI die impact in de echte wereld levert: innovatie versnellen zonder in te leveren op beveiliging, snelheid of governance.

3. Private AI zelfs in publieke cloud
De vroege AI-acceptatie werd gedefinieerd door beperkingen. Organisaties limiteerden hun AI-gebruik tot niet-gevoelige datasets: het opstellen van generieke content, het analyseren van publieke trends of het automatiseren van routinetaken, omdat het verplaatsen van bedrijfsdata buiten hun omgevingen onaanvaardbare risico's met zich meebracht. Als gevolg hiervan bleven kritische toepassingen uit: financiële dienstverleners konden hun transactielogboeken niet veilig analyseren, zorgverleners vermeden inzichten in patiëntendossiers en fabrikanten aarzelden om de activiteiten te optimaliseren met bedrijfseigen sensordata.

Als een hybride platform voor data en AI, herdefinieert Cloudera wat er mogelijk is. Organisaties kunnen dezelfde AI-workloads uitvoeren op elke cloud en elk datacenter, allemaal binnen hun virtuele bedrijfsfirewall. Bij private AI implementeren organisaties modellen zoals Llama3 en DeepSeek binnen hun bestaande data-omgevingen, of dit nu in een datacenter is, of in een beveiligde AWS- of Microsoft Azure-cloud, of hybride architectuur. Wanneer alle eigen data met AI te gebruiken is, evolueren de basistoepassingen, zoals het genereren van rapporten, naar het oplossen van kritische uitdagingen. Zoals het analyseren van sensordata om processen te optimaliseren, detecteren van afwijkingen in realtime transactielogboeken, of het personaliseren van klantinteracties, beheerd door eigen encryptie-, toegangsbeleid- en governancerichtlijnen.

Private-AI ontwikkelen en uitvoeren
Cloudera AI is speciaal ontwikkeld om ervoor te zorgen dat organisaties niet hoeven te kiezen tussen innovatie en controle, maar dat beide te benutten zijn. Met de services van Cloudera kunnen gebruikers private AI-toepassingen ontwikkelen en uitvoeren:
• Cloudera AI Workbench versnelt de ontwikkeling van AI-toepassingen met een flexibel hybride platform. Voor zowel het bouwen en verfijnen van modellen als het maken van applicaties en agents, door privédata te benutten om ideeën sneller om te zetten in kant-en-klare oplossingen.
• Cloudera AI Inference is een service voor het implementeren van AI-modellen, applicaties en agents. De geïntegreerde en geoptimaliseerde modelmicroservices versnellen de snelheid van inferenties met 36x op het Cloudera-platform, waardoor responsieve, krachtige AI-bewerkingen mogelijk zijn met voorspelbare totale eigendomskosten (TCO). Dan hoeft men niet te kiezen tussen snelheid, schaal of kosten.
• Cloudera AI Registry fungeert als de centrale hub voor een end-to-end AI-levenscyclus, die modelontwikkeling en -bewerkingen overbrugt. Dankzij toegang tot honderden geoptimaliseerde modellen van open-sourcecommunity's en AI-partners, zijn de nieuwste ontwikkelingen altijd direct beschikbaar, eenvoudig te integreren en aanpasbaar voor al lopende AI-initiatieven.

Door onze strategie te verankeren in open-source flexibiliteit, bewezen security en een continue focus op private AI, stelt Cloudera organisaties in staat zich te verlossen van compromissen. De AI-revolutie komt er niet meer aan, die is er al, alleen hoe gaat u deze in de eigen organisatie vormgeven en managen?

Rein de Jong

Rein de Jong is Regional Vice President Benelux bij Cloudera.

Alle blogs van deze auteur

Partners