AI kan je net als social media in een informatiebubbel zetten
We weten inmiddels dat de algoritmes van sociale media je in een informatie bubbel kunnen plaatsen. Door je steeds informatie voor te schotelen die overeenkomt met je voorkeuren wordt je meer en meer gesterkt in je bestaande mening. En we hebben als mensen al een confirmation bias.
Met AI is er een soortgelijk gevaar. We laten steeds meer content op internet door gen AI-toepassingen schrijven. Dat is lekker snel en voor marketing is het vaak effectiever dan wat we zelf bedenken. Alleen haalt AI zijn informatie grotendeels van datzelfde internet. Daardoor ontstaat er een informatiecirkel. Hoe meer content we door AI laten genereren, hoe meer AI zichzelf van informatie aan het voorzien is. En hoe eenzijdiger die informatie dus wordt.
Minder relevant
Maar het gaat verder. In de afgelopen jaren zijn de zoekresultaten van Google en Bing door Search Engine Optimization geoptimaliseerd voor adverteerders, waardoor we resultaten krijgen die voor ons steeds minder relevant worden.
Een voorbeeld: als een programmeur zoekt naar de C++ string klasse wordt hij eerst getrakteerd op een paar pagina’s damesondergoed omdat verkopers daarvan geoptimaliseerd hebben op het zoekwoord ‘string’. Het resultaat dat wel relevant is, staat al lang niet meer bovenaan de zoekresultaten. Jouw zoekopdrachten zijn het product dat verkocht wordt aan adverteerders.
Beïnvloeding als dienst
Naarmate we meer met behulp van gen AI-toepassingen gaan zoeken op internet, zullen er ook AI-optimalisatiebedrijven gaan komen die het beïnvloeden van AI-resultaten als dienst verkopen. Ze zullen de input van AI’s zo proberen te kleuren, dat de AI’s hun opdrachtgevers en hun producten veel gaan noemen in hun output. Ze gaan uitvogelen hoe de algoritmes van ChatGPT en Bard werken om ze zo efficiënt mogelijk te beïnvloeden. En hoe lang gaat het duren voordat AI’s gesponsorde antwoorden geven?
De huidige generatie gen AI kan niet kritisch denken. Het gelooft alles wat je er in stopt. Het kleine leger aan content-filterende medewerkers dat ChatGPT en Bard hiertegen moet beschermen, kan niet alles tegen houden. Ze zijn niet deskundig op elk terrein. En als ze referenties zoeken, vinden ze steeds meer AI-gegenereerde content. Zo wordt de bubbel steeds kleiner.
Krimpende informatiebubbel
Voor alle duidelijkheid: AI is een heel nuttige technologie die ons veel werk uit handen kan nemen. Maar zoals elk gereedschap moet je het wel met beleid gebruiken en weten waar de gevaren zitten. En dus ook weten of de informatie die je gevonden hebt met dit gereedschap gemaakt is. Anders is jouw informatiebubbel straks wel erg klein.
Hugo van den Berg is algemeen directeur van Sciante.