26 september 2024

De kunst van een goed ontwerp

Het bedenken, ontwerpen, bouwen en onderhouden van producten en processen vraagt de kunst om elegante, schaalbare en lichtvoetige ontwerpen te ‘kunnen bedenken’. Ik zeg met opzet kunnen bedenken, omdat dit een complex proces van creativiteit, bruikbaarheid, maakbaarheid en instandhouding is. Vaardigheden die vakmatig aanwezig zijn bij ervaren ontwerpers, architecten en ingenieurs. De aanwezigheid van die combinatie ’vooraf’ maakt dat initiële ideeën en ontwerpen werkelijk geniaal kunnen worden. ‘Good design’ is een concept dat industrieel ontwerper Dieter Rams definieerde als: ‘het maakt een product of proces bruikbaar en begrijpelijk, is innovatief, esthetisch, onopvallend, eerlijk, duurzaam, grondig tot in de puntjes, milieuvriendelijk en omvat zo min mogelijk design. Maar de belangrijkste regel is en blijft: houd het zo simpel mogelijk.

De kunst van een goed ontwerp image

Architectuur en techniek

In een eerder artikel ‘Een pleidooi voor verantwoord digitaliseren’, dat ik samen met Daan Rijsenbrij schreef, spraken we over de yin en yang relatie tussen de architect (bruikbaarheid) en ingenieur (maakbaarheid). Je kunt iets zeer bruikbaars ontwerpen, als het technisch niet of lastig te maken en te onderhouden is, heb je er uiteindelijk weinig aan. De kunst van goed ontwerpen is een ingewikkeld spel tussen bruikbaarheid en technische uitvoerbaarheid, waarbij de uiteindelijke oplossing zo simpel mogelijk moet zijn en blijven. De beste toevoeging aan een ontwerp is minimaliseren. Of bij software: negatieve code schrijven, het actief blijven verminderen van het aantal regels code.

Simpelheid eist dat bij elke digitale oplossing de motor c.q. de onderliggende software zo robuust en procesgericht gekozen moet zijn, opdat het door die ingebouwde efficiency en minimale overhead, ook gigantisch schaalbaar wordt en blijft. Immers als de ‘motor’ vrijwel oneindig kan worden opgevoerd met met behoud van voorspelbaarheid en herhaalbaarheid, ben je redelijk toekomstvast wat betreft het gebruik van die oplossing. Wat de hardware betreft helpt AI ons al met de groei van formule 1-achtige processoren als NVIDIA en kwantum computing komt ook steeds dichterbij. Realtime informatieprocessen vragen niet alleen hardware performance maar vooral ook software met interne eenvoud en efficiency om – indien gewenst of noodzakelijk – met die hardware mee te kunnen blijven schalen.

Data en informatie bewaren wordt steeds uitdagender

Een uitdaging momenteel is dat de groeiende digitalisering onze data- en informatiestromen laat ‘ontploffen’. Niet alleen in informatiedichtheid maar ook in het aantal parallelle stromen. We waren al decennia niet meer in staat om alles wat digitaal wordt gecreëerd, op te slaan. De data-opslag daarvoor was zowel fysiek niet beschikbaar als economisch niet te betalen. Veel informatie werd daardoor al ‘vluchtig’ en eenmalig, en dat percentage wordt steeds groter. Als we ons, wetend dat die vluchtigheid alleen maar erger wordt, buigen over het – gewenst óf verplicht – archiveren van informatie die tóch moet worden bewaard, weten we ook dat we alle creativiteit nodig hebben om in zo’n oplossing schaalbaarheid ‘by design’ in te bouwen.

In het verleden konden we informatieproducten zoals transacties, documenten en dossiers, aan het einde van hun gebruiksperiode – mits relevant of verplicht – netjes archiveren. Immers informatie (inhoud) en informatiedrager (papier) waren hetzelfde en konden daarom fysiek langdurig worden opgeslagen. Zelfs simpele digitalisatie via scans bleef mogelijk. Maar in een 100% digitaal proces is informatie, content en context niet meer gekoppeld aan hun informatiedragers. Die dragers of media kunnen zelfs meermalen in de tijd veranderen, waardoor oorspronkelijke informatie technisch niet eens meer bruikbaar is. Als digitale informatie niet direct bij de bron geborgd en duurzaam kan worden opgeslagen, wordt het gevaar van vluchtigheid, vergeetachtigheid en zelfs digitale dementie steeds groter.

De groei van Dark Data

Dark data is een verschijnsel dat we bij veel organisaties tegenkomen. Gartner definieert dark data als de informatie-assets die organisaties verzamelen, verwerken en opslaan tijdens reguliere bedrijfsactiviteiten, maar die ze over het algemeen niet (meer) gebruiken voor andere doeleinden, zoals analyses of voor AI-toepassingen. Net als dark matter in de natuurkunde, omvat dark data vaak het universum van informatie-assets van de meeste organisaties. Organisaties bewaren dark data daarom vaak alleen voor nalevingsdoeleinden zoals compliance, governance en wettelijke verplichtingen. Het gemetadateerd en inhoudelijke opslaan en beveiligen van die onbekende data brengt doorgaans meer kosten en soms een groter risico met zich mee dan de verwachte toekomstige waarde.

Om dark data te voorkomen, is digitale bronarchivering met directe metadatering een interessante optie. Archiveren zodra informatie inhoudelijk compleet en formeel is gemaakt en wordt ‘vrijgegeven’. Gelukkig zijn er veel digitale documenten en berichten die eenmalig zijn en dus direct gearchiveerd kunnen worden. Een transactie is onveranderlijk, een brief of email verandert nooit meer, er komen vervolgbrieven of emails, die op dezelfde wijze direct gearchiveerd kunnen worden. Maar nu komt de uitdaging: moeten we echt álles archiveren of alleen datgene dat relevant en/of wettelijk noodzakelijk is? Dat moet een realtime keuze zijn, gegeven de enorme stromen aan informatie die tegenwoordig naar en door organisaties stromen.

Content en context

Een eerdere blog ‘Content zonder context heeft weinig waarde’ beschreef dat voor toekomstig gebruik, content vaak in de context van gebeurtenissen, tijd en betrokken moet kunnen worden geplaatst. Bij de afgelopen parlementaire enquetes of tribunalen was het ‘kunnen’ reconstrueren van historische situaties op basis van digitale informatie lastig zo niet onmogelijk, vaak ook door het ontbreken van context. Waarom nam betrokkene op dat moment die beslissing en welke andere gebeurtenissen vonden toen plaats? Als je in een archiveer-proces ook parallelle context wil meenemen, kun je niet anders dan te bronarchiveren, waarbij direct alle relevante context nog kan worden ‘geduid’.

Ik gebruik het woord ‘geduid’ hier met opzet, omdat het onmogelijk is alle contextuele informatie ook nog eens apart op te slaan. Het duiden betekent hier het met links aangegeven welke andere – mogelijk reeds gearchiveerde – informatie een relatie heeft of had met het te archiveren informatieproduct. Bronarchivering moet deze contextuele aanvulling realtime kunnen meenemen bij het metadateren van het te archiveren bericht of document. Een belangrijke functionele eis voor een schaalbaar en toekomstvast digitaal archiveringsproces.

ArQiver: the art of archiving

In een eerdere blog ‘Archiveren: een hoogwaardige sexy sport?’ beschreef ik dat het moderne archiveren, naast de noodzaak en aanwezigheid van architectuur en hoogwaardige techniek, een artistieke component heeft. Dit vraagt hoogwaardige menselijke intelligentie, ook de inzet van kunstmatige intelligentie om zowel te voldoen aan de basis archiefeisen en alle overlappende privacy en andere wettelijke vereisten. Maar ook authenticatie en identificaties wie wat mag en mocht archiveren alsmede de gegarandeerde onveranderlijkheid van eenmaal gearchiveerde digitale informatieproducten. Onze oplossing ArQiver is mede met bovenstaande overwegingen afgelopen jaar ontwikkeld en nu gereed om te worden gebruikt. Een unieke digitale bron-archiveringsoplossing, die zowel wat betreft architectuur als onderliggende techniek, toekomstvast is voor alle groei van document-, dossier- en chat-archivering die nog op ons afkomt.

Door: Hans Timmerman (foto)

Dutch IT Security Day BW tm 15-10-2024 DIC Awards BW tm 21-10-2024
Copaco BN + BW 23-09 tm 06-10-2024