OpenAI en TikTok Conformeren zich aan nieuwe richtlijnen voor Ethisch gebruik van AI

Hoe maak, publiceer en deel je generatieve AI verantwoord? AI kan misbruikt worden om valse informatie te verspreiden of mensen te manipuleren. Toonaangevende bedrijven als ChatGPT, Tiktok en Adobe conformeren zich aan nieuwe ethische richtlijnen.
  • Jack Clark, directeur strategie bij OpenAI, waarschuwt dat als er geen actie wordt ondernomen om vertrouwen in kunstmatige intelligentie te herstellen, er regels en wetten kunnen worden ingevoerd die steeds meer beperkingen opleggen.
  • De aanbevelingen omvatten onder meer transparantie, met modelkaarten die inzicht geven in hoe de systemen werken en openheid over de data die wordt gebruikt.
  • De AI richtlijnen bevatten aanbevelingen over hoe bedrijven kunnen voorkomen dat hun generatieve AI-systemen worden misbruikt.
  • Bedrijven moeten hun generatieve AI verantwoordelijk maken, vrijgeven en delen om te profiteren van technologische kansen en risico’s te beperken.

De eerste 10 bedrijven die zich hebben gecommitteerd aan de richtlijnen zijn Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness en synthetische media-startups Element AI en Vidado.

Ze zijn allemaal lid van het Partnership on AI (PAI), een samenwerkingsverband van bedrijven, wetenschappers en maatschappelijke organisaties dat zich inzet voor het verantwoord gebruik van AI.

De nieuwe richtlijnen zijn opgesteld door een werkgroep van PAI met input van deskundigen uit de industrie, wetenschap en maatschappij. Ze bevatten aanbevelingen over hoe bedrijven kunnen voorkomen dat hun generatieve AI-systemen worden misbruikt om bijvoorbeeld nepnieuws te verspreiden of discriminatie in stand te houden.

Eén van de aanbevelingen is dat bedrijven die generatieve AI gebruiken transparant moeten zijn over wat ze doen. Dat betekent onder meer het publiceren van modelkaarten die inzicht geven in hoe hun systemen werken.

Ook moet er openheid zijn over de data die wordt gebruikt om de systemen te trainen, zodat onderzoekers kunnen controleren of er geen oneigenlijk gebruik wordt gemaakt van bijvoorbeeld ras- of geslachtsgegevens.

“Als we niet open zijn over wat we doen met kunstmatige intelligentie, dan is er echt een risico dat mensen vertrouwen gaan verliezen in technologie”, zegt Jack Clark, directeur strategie bij OpenAI. “En als mensen vertrouwen verliezen in technologie, dan gaat dat ten koste van de maatschappelijke waarde ervan.”

Clark denkt dat het belangrijk is dat er snel actie wordt ondernomen om het vertrouwen in kunstmatige intelligentie te herstellen. “Als we nu niet snel handelen, dan lopen we het risico dat er allerlei regels en wetten worden ingevoerd die steeds meer beperkingen opleggen aan wat je met deze technologie kan doen”, aldus Clark. “En dat is niet goed voor bedrijven of voor de maatschappij.”

Bronnen:

Geef een reactie