Experts van Amsterdam UMC en de Universiteit van Amsterdam, twee kennisinstellingen voor wie kunstmatige intelligentie een belangrijk thema is, hebben vandaag zogeheten 'levende richtlijnen' voor verantwoord gebruik van generatieve AI – zoals de tool ChatGPT – gepubliceerd in Nature. Kernprincipes daarbij zijn: verantwoording, transparantie en onafhankelijk toezicht. Zij pleiten daarbij voor de onmiddellijke oprichting van een onafhankelijk toezichtsorgaan bestaande uit wetenschappers.

Generatieve AI is een vorm van kunstmatige intelligentie waarmee iemand automatisch teksten, afbeeldingen, audio en andere content kan maken. Gebruik ervan heeft voordelen, maar nadelen zijn er ook. Er is daarom een dringende behoefte aan wetenschappelijk en maatschappelijk toezicht in de zich snel ontwikkelende sector van kunstmatige intelligentie.
Eerste auteur van het Nature-artikel is Claudi Bockting, hoogleraar Klinische psychologie in Psychiatrie aan Amsterdam UMC en mededirecteur van het Centre for Urban Mental Health. Zij stelt dat “AI-tools het internet kunnen overspoelen met verkeerde informatie en 'deep fakes' die niet van echt te onderscheiden zijn. Op termijn kan dit het vertrouwen tussen mensen onderling, in politici, instellingen en de wetenschap aantasten. Daarom moeten onafhankelijke wetenschappers het voortouw nemen bij het testen en verbeteren van de veiligheid en beveiliging van generatieve AI. De meeste wetenschappers kunnen nu echter beperkt generatieve AI-tools ontwikkelen en niet op voorhand evalueren. Het ontbreekt hen aan toegang tot trainingsdata, faciliteiten of aan financiering.”

Traag tempo

De richtlijnen in Nature zijn opgesteld na twee topbijeenkomsten met leden van internationale organisaties zoals de International Science Council, de University Based Institutes for Advanced Study, de European Academy of Sciences and Arts en leden van organisaties als UNESCO en de Verenigde Naties. Het initiatief van dit consortium biedt een evenwichtig perspectief te midden van het trage tempo van overheidsregulering, versnipperde richtlijnontwikkelingen en de onduidelijkheid of grote technologische bedrijven aan zelfregulering zullen doen.
Volgens de auteurs is toezicht de taak van een wetenschappelijk instituut. Dit instituut moet zich dan vooral richten op kwantitatieve metingen van effecten van AI, zowel positief als potentieel nadelig. De evaluaties dienen volgens wetenschappelijke methodes worden uitgevoerd. Openbaar welzijn en de authenticiteit van wetenschappelijk onderzoek hebben daarbij prioriteit, en niet commerciële belangen.

De 'levende richtlijnen' draaien om drie belangrijke principes:

  • Verantwoording: Het consortium pleit voor een menselijke benadering. Generatieve AI kan helpen bij taken zonder risico op grote gevolgen, maar essentiële activiteiten - zoals het schrijven van wetenschappelijke publicaties of beoordelingen door vakgenoten - moeten menselijk toezicht behouden.
  • Transparantie: Het is noodzakelijk dat het gebruik van generatieve AI altijd duidelijk wordt vermeld. Dit stelt de bredere wetenschappelijke gemeenschap in staat om de gevolgen van generatieve AI op de kwaliteit van het onderzoek en de besluitvorming te beoordelen. Bovendien dringt het consortium er bij de ontwikkelaars van AI-tools op aan om transparant te zijn over hun methodes, zodat uitgebreide evaluaties mogelijk zijn.
  • Onafhankelijk toezicht: Gezien de enorme financiële belangen van de generatieve AI-sector, is het niet haalbaar om alleen op zelfregulering te vertrouwen. Externe, onafhankelijke, objectieve controles zijn cruciaal om een ethisch en kwalitatief hoogstaand gebruik van AI-tools te garanderen.

Voorwaarden

De auteurs benadrukken de dringende behoefte aan het door hen voorgestelde wetenschappelijke orgaan, dat ook eventuele opkomende of onopgeloste problemen op het gebied van AI kan aanpakken. Er zijn wel een aantal voorwaarden voordat dit orgaan zijn werk goed kan uitvoeren. Het wetenschappelijke instituut moet over voldoende rekenkracht beschikken om modellen op ware grootte te kunnen testen. En het moet voldoende informatie over de brongegevens krijgen om te kunnen beoordelen hoe AI-tools zijn getraind, zelfs voordat ze worden vrijgegeven. Verder is er internationale financiering en brede juridische ondersteuning nodig, alsmede samenwerking met leiders uit de technologische industrie, terwijl tegelijkertijd de onafhankelijkheid wordt gewaarborgd.

Kortom, het consortium benadrukt de noodzaak van investeringen in een comité van experts en een toezichtsorgaan. Op die manier kan generatieve AI op een verantwoorde manier vooruitgang boeken en is er een balans tussen innovatie en maatschappelijk welzijn.

AI en Amsterdam UMC

Verantwoord en mensgericht gebruik van AI is een van de uitgangspunten in het beleid in Amsterdam UMC, net als in de samenwerking met de partners in de regio in Amsterdam AI. De discussie over de ethische en juridische aspecten van AI zijn een belangrijk onderdeel van zowel Health Research Infrastructure als Amsterdam AI. Deze uitgangspunten gelden dus ook voor generatieve AI. Mat Daemen, vice-decaan onderzoek van Amsterdam UMC: “In het Nature-artikel wordt een lans gebroken voor het opstellen van levende richtlijnen voor het gebruik van generatieve AI met drie uitgangspunten: verantwoording afleggen, toegang geven tot alle informatie en een onafhankelijk toezicht. Dat lijkt mij een hele verstandige route.”

Over het consortium
Het consortium bestaat uit AI-experts, computerwetenschappers en specialisten in de psychologische en sociale effecten van AI van Amsterdam UMC, IAS en de faculteit Bètawetenschappen van de UvA.

Lees het hele artikel Living guidelines for generative AI in Nature.

Fotografie: Shutterstock