ChatGPT & transparantie: hoe wordt dit geborgd en wat kun je zelf doen?
Ik heb net het eerste boek uit dat is geschreven door ChatGPT. Artificial intelligence (AI) gaat een steeds groter wordende rol in ons leven spelen, daar kunnen we niet meer omheen. Daarom vind ik het tijd dat we het over ethiek moeten hebben. Transparantie is de basis om AI op een ethische manier in te zetten. Wat doet OpenAI om de transparantie van ChatGPT te borgen? En wat kun je zelf binnen jouw organisatie doen om transparant te worden en te blijven over het gebruik van AI?
Hoe transparant is ChatGPT?
Transparantie – in de context van AI-systemen – betekent dat de werking van het systeem, de data waarop het getraind is, en de beslissingen die het maakt, begrijpelijk en controleerbaar zijn voor mensen. AI krijgt steeds meer invloed op ons leven, daarom is het belangrijk dat we begrijpen en kunnen voorspellen hoe de modellen werken.
Helaas kan het vooral bij complexe machinelearning-modellen, zoals GPT-4, een uitdaging zijn om de transparantie te waarborgen. Het is een blackbox-model dus, zo noem je dat als de werking moeilijk te begrijpen is en de uitkomst niet controleerbaar is. Toch doet OpenAI er veel aan om de transparantie van ChatGPT te borgen. Ze hebben hier verschillende initiatieven voor in het leven geroepen, hieronder bespreek ik er een paar.
Welke initiatieven heeft OpenAI in het leven geroepen om de transparantie van ChatGPT te borgen?
OpenAI-blog en updates
OpenAI gebruikt hun blog om updates te geven over de ontwikkeling van hun modellen. Daarin worden ethiek en veiligheid regelmatig besproken. Sowieso interessant om te volgen, zodat je op de hoogte bent van de nieuwste ontwikkelingen.
Feedback van de gebruikers
Gebruikers worden actief aangemoedigd om feedback te geven. Dit stelt OpenAI in staat om onvoorziene problemen of gedragingen van het model te identificeren en hierop te reageren.
Dialoog met de gebruikers en gemeenschap
OpenAI heeft een actieve dialoog met de bredere AI-gemeenschap, die bestaat uit onder andere onderzoekers, ethici, en het publiek, om feedback en inzichten te krijgen over hun modellen.
Beleid
Er zijn specifieke richtlijnen en beleid opgesteld door OpenAI voor het gebruik van ChatGPT. Daarin staat onder andere wat als misbruik beschouwd wordt. Dit beleid is publiekelijk toegankelijk en geeft je inzicht in hoe OpenAI ethische problemen benadert.
Publicatie van onderzoek
OpenAI publiceert regelmatig over hun research. In deze onderzoeken vind je niet alleen de resultaten van experimenten, maar ook de methodologieën, uitdagingen en soms ook datasets.
Red teaming
OpenAI heeft ‘red teaming’-experimenten uitgevoerd waarbij externen werden uitgenodigd om de modellen te testen en kwetsbaarheden te identificeren.
Iteratieve deployment
Er worden eerst kleinere, minder krachtige modellen uitgerold om te zien hoe ze worden gebruikt, voordat OpenAI grotere modellen zoals GPT-4 uitrolt.
Hoe waarborg je de transparantie zelf?
Dit zijn maar een paar van de initiatieven die OpenAI in het leven heeft geroepen om de transparantie van ChatGPT te borgen. Kan het beter? Het antwoord blijft waarschijnlijk altijd: altijd. Gelukkig maar, want dat betekent dat wij dus onze gezonde verstand moeten blijven gebruiken. Anders sterven die hersencellen ook maar af.
Maakt jouw organisatie gebruik van ChatGPT of andere AI-tools? Dan ben ik heel benieuwd op welke manier jij bezig bent met transparantie.
Ik geef je graag een aantal suggesties die je hierbij kunnen helpen.
1. Duidelijke communicatie
Communiceer, je raadt het al, duidelijk over hoe en waar AI binnen je organisatie wordt gebruikt. Denk hierbij ook aan je eigen collega’s. AI-tools zijn echt niet voor iedereen zo vanzelfsprekend. Middelen die je kunt inzetten zijn onder andere interne memo’s, blogs of nieuwsberichten.
2. Opleiding en bewustwording
Zorg dat collega’s niet alleen op de hoogte zijn van AI-initiatieven, maar zorg dat ze ook begrijpen hoe deze werken en wat de ethische overwegingen zijn. Dit kun je bijvoorbeeld doen door opleiding of workshops te faciliteren.
3. Begrijpelijke gebruiksrichtlijnen
Creëer en publiceer duidelijke richtlijnen over hoe AI mag worden gebruikt binnen je organisatie.
4. Inzicht in besluitvorming
Voor AI-systemen die beslissingen nemen (bijvoorbeeld kredietwaardigheidsbeoordelingen): zorg ervoor dat er een manier is voor gebruikers om inzicht te krijgen in hoe een bepaalde beslissing is genomen.
5. Stakeholder engagement
Betrek zowel interne als externe belanghebbenden bij discussies over hoe AI wordt gebruikt binnen jouw organisatie. Dit kan bijvoorbeeld via enquêtes of focusgroepen. Niet alleen belangrijk voor de transparantie, maar ook om alle stakeholders mee te krijgen en te enthousiasmeren voor AI.
6. Ethiekcommissie
Overweeg het opzetten van een ethiekcommissie die regelmatig bijeenkomt om te bespreken hoe AI binnen de organisatie wordt gebruikt en of dat voldoet aan de richtlijnen en het beleid. En maak ze gelijk maar verantwoordelijk voor het bijhouden van die gebruiksrichtlijnen…
7. Feedback mechanismen
Zorg dat het voor collega’s eenvoudig is om mee te denken over AI-initiatieven en feedback te geven over de resultaten.
8. Transparantie over fouten
Als er problemen of fouten optreden als gevolg van het gebruik van AI, wees dan open over wat er is gebeurd, waarom het is gebeurd en welke stappen je neemt om het in de toekomst te voorkomen. Een recent voorbeeld is de AI-gegeneerde foto van pinguïns die in het NOS Journaal terechtkwam. Wat mij betreft heeft de NOS daar op de juiste manier over gecommuniceerd.
9. Externe audits
Overweeg om een externe audit te laten uitvoeren. Dit kan helpen bij het identificeren van blinde vlekken en biedt een extra laag van verificatie.
10. Open source
Overweeg om gebruik te maken van open-source tools en frameworks voor je AI-initiatieven. Dit maakt het voor anderen makkelijker om de werking en validiteit van je modellen te begrijpen.
Belangrijk dus om je te verdiepen in wat organisaties en bedenkers van AI-tools doen om de transparantie van hun model te borgen, zodat je de waarde van de output kan beoordelen. Als je als organisatie zelf met AI werkt, is het vooral belangrijk dat je open en duidelijk communiceert over hoe AI binnen de organisatie wordt ingezet. Vergeet daar de interne stakeholders niet bij. We nemen wat mij betreft nog net te vaak aan dat iedereen wel mee is met de laatste ontwikkelingen. Aannames zijn sowieso gevaarlijk, soms zelfs levensgevaarlijk als het op AI aankomt.
Ik hoop dat het woord transparantie na het lezen van dit artikel op je netvlies staat én dat je verder vooral doorgaat met het ontdekken van, experimenteren met en omarmen van AI.
Hallo, ik ben ChatGPT – een boek over ChatGPT, geschreven door ChatGPT
Ik kan niet ontkennen dat ik een beetje cynisch aan het boek ‘Hallo, ik ben ChatGPT‘ (affiliate) begon. Waarom? ‘De ontwikkelingen gaan zo hard, dat het boek al achterhaald is zodra het te verkrijgen is’, schoot door mijn hoofd. Dat bleek deels ook zo. Ik heb weinig écht nieuwe dingen gelezen en miste op een aantal vlakken verdieping. Maar ik lees veel over ChatGPT en zet het regelmatig in.
Wat ik me kan voorstellen is dat dit boek een fijne basis is voordat je kennis gaat maken met ChatGPT of als je het nog niet zo regelmatig gebruikt. Dit boek gaat er ongetwijfeld voor zorgen dat je het met meer vertrouwen gaat gebruiken, dat is waardevol. Daarnaast vind ik het knap wat Bob van Duuren van de output heeft gemaakt. Het boek is begrijpelijk en leest makkelijk weg.