Witold Kepinski - 22 april 2024

Clemens Esser, HPE: “Neem altijd een use case als uitgangspunt”

Als de CTO van HPE in Nederland praat Clemens Esser constant met klanten over nieuwe technologische ontwikkelingen. De laatste tijd gaan die gesprekken, hoe kan het ook anders, steeds vaker over generative AI. Esser vertelt welke ontwikkelingen hij ziet en geeft een aantal belangrijke tips voor data- en AI-projecten.

Clemens Esser, HPE: “Neem altijd een use case als uitgangspunt” image

“Met de komst van ChatGPT is het besef ontstaan dat AI echt de beste uitvinding is sinds het gesneden brood”, trapt Esser af. “Veel bedrijven zijn er bovenop gesprongen. Met behulp van open source modellen en technologie die is vrijgekomen, worden er al veel waardevolle oplossingen gecreëerd.”

Hij ziet daarin een interessante tendens. “Tot voorkort keken bedrijven vanuit de technologie naar wat er mogelijk was met generative AI, in plaats te kijken naar de behoeften vanuit de business. Het grote nadeel daarvan was dat die technologische oplossingen niet op een goede manier in bedrijfsprocessen opgenomen werden. Inmiddels worden use cases en data wel veel meer als uitgangspunt gebruikt, omdat bedrijven veel meer uit hun eigen data willen halen. Daarom is een goede datastrategie ook zo belangrijk.”

Verplaatsen in eindgebruikers

Hij heeft daarbij wel een belangrijk advies. “Bedrijven gaan nu vaak pas van start als alles honderd procent op orde is. Mijn tip zou zijn om op een gegeven moment gewoon te beginnen. Ga op een iteratieve manier te werk. En kijk niet vanuit de technologie, maar vanuit use cases en data. Zoals Steve Jobs al zei: verplaats je in de ervaring van eindgebruikers en maak daar mooie oplossingen voor. Neem een use case als uitgangspunt en bepaal dan welke waarde deze oplossing gaat brengen. Op basis daarvan is het ook makkelijker om te bepalen wat het mag kosten. Vervolgens bepaal je welke oplossing, technologie en data daarvoor nodig zijn. Dit soort trajecten zijn vaak heel goed op te delen in kleine, behapbare projectjes.”

Een belangrijke uitdaging bij dit soort data- en AI-trajecten is volgens hem de uitlegbaarheid. “Je wilt na afloop kunnen uitleggen wat er gedaan is, bijvoorbeeld wanneer een dataset op een aantal momenten is aangepast. HPE heeft daar speciale software voor, binnen onze Ezmeral suite. Die volgt een data pipeline om de data klaar te maken voor AI. Met de software wordt zichtbaar op welke input de data aan het einde van die pipeline is gebaseerd. Zo ontstaat er een soort bewijslast van wat er met de data is gebeurd, waardoor de uitlegbaarheid zeker wordt gesteld en dat is onder andere belangrijk voor de AI Act die eraan zit te komen.”

Beleid vaststellen

“Het is dus belangrijk om vooraf een strategie te bepalen voor wat je met AI wilt doen”, maakt Clemens duidelijk. “Daar hoort ook AI Governance bij. Welke regels gaan gelden? Ook over operations moet nagedacht worden. Hoe hou je de modellen in de gaten en hoe ga je om met het updaten daarvan? Ook security moet niet uit het oog verloren worden. Hoe voorkom je een hack? Maar ook: hoe zorg je ervoor dat AI wel human centric blijft, zonder dat er bias ontstaat? Er is dus beleid nodig, maar ook hiervoor geldt: dat hoeft niet meteen perfect te zijn. Ook dit kan een iteratief proces zijn.”

Als er een use case is gekozen en een beleid is vastgelegd, kun je met de juiste tools aan de slag. Een belangrijke keuze is dan: public cloud of niet? Esser: “Als er sprake is van veel eigen data waarmee je met behulp van een LLM wilt communiceren, wordt vaak gekozen voor beheer in een eigen datacenter. Daarvoor is storage, compute en de juiste software nodig. Wij kunnen klanten goed helpen in dit hele traject. Vanuit consulting organiseren we workshops om te bepalen wat klanten zouden kunnen doen met LLM’s in hun omgeving. Voor de realisatie hebben we een sterk ecosysteem van partners die heel goed kunnen helpen om de juiste oplossing vorm te geven.”

Hoogste punt

Open source wint aan populariteit in de AI-wereld, merkt Esser. “Zeker bij LLM’s zie je steeds meer oplossingen die informatie alleen uit de eigen data van organisaties halen. Dan gaat het dus niet meer om de grote, bekende oplossingen zoals ChatGPT en Microsoft Copilot, maar vooral om kleinere open source modellen. Het voordeel is dat hiervoor geen enorme computers nodig zijn.”

Hij adviseert bedrijven wel om zich niet blind te staren op LLM’s. “In de hype cycle van Gartner zitten de LLM’s nu echt op het allerhoogste punt. Dat betekent dat de kans op teleurstellende projecten groot is. Vision AI, dus alles dat met beeld te maken heeft, zit al een flinke tijd in de volwassen fase. Ik merk dat er onder andere in de productiesector en de zorg veel met beeld wordt gewerkt. Denk aan de kwaliteitscontrole van producten of het reageren op bewegingen van mensen of objecten, met inachtneming van de juiste privacyregels. ”

LLM’s zijn niet altijd de beste oplossing, zo legt hij uit. Onder andere vanuit duurzaamheidsoverwegingen. “Als LLM’s gebruikt worden, terwijl een zoekmachine ook volstaat, wordt er veel meer stroom verbruikt. Soms is standaard Machine Learning ook gewoonweg beter. Verschillende vraagstukken vragen om verschillende oplossingen. Een klusser gebruikt tenslotte ook niet een hamer voor alle klussen.”

Ziekenhuis

Clemens noemt een project van HPE waar hij trots op is. “In het Catharina Ziekenhuis Eindhoven heeft HPE AI-technologie geleverd waarmee cardiologen hartfilmpjes analyseren en onderzoek doen naar ECG’s. Hierdoor hebben ze inzicht gekregen in het proces van hartfalen, met als groot voordeel dat de juiste medicatie voorgeschreven kan worden voordat het hartfalen daadwerkelijk optreedt.”

De case van Catharina ziekenhuis toont aan dat als de use case goed is, het daarna snel kan gaan. “Mijn tip aan IT-beslissers is om niet de makkelijkste, maar zeker ook niet de moeilijkste use case te kiezen. Als de juiste use case wordt gekozen, kan er snel, vaak al binnen drie maanden, resultaat geboekt worden. Op basis van die eerste resultaten kan er gemakkelijk uitgebreid worden en ontstaat een soort vliegwiel.”

Door: Johan van Leeuwen (tekst) en Witold Kepinski (interview)

Axians 12/11/2024 t/m 26/11/2024 BN+BW