Beheers AI: leer de basisprincipes van prompt engineering
PLUS: ChatGPT's vooroordelen onthuld, Adobe Firefly vliegt door video's en deepfake-romeo's stelen harten in Hongkong
De AI-wereld ontwikkelt zich razendsnel, en wij, de makers van de podcast Poki, houden je op de hoogte. Twee keer per week de nieuwste AI-ontwikkelingen, tools, use cases en onderzoek.
🗞️ Het belangrijkste nieuws
OpenAI onthult: ChatGPT’s subtiele vooroordelen op basis van namen
Stel je voor: je vraagt ChatGPT om een YouTube-titel te verzinnen. Als je John heet, krijg je misschien ‘10 handige lifehacks die je moet proberen!’, maar als Amanda het vraagt, wordt het ‘10 makkelijke en heerlijke recepten voor drukke avonden’. Toeval? Niet helemaal, zo blijkt uit nieuw onderzoek van OpenAI.
De grote AI-bias-expeditie
OpenAI, het bedrijf dat ChatGPT de wereld in slingerde, heeft miljoenen gesprekken onder de loep genomen om te kijken of het AI-model ons allemaal gelijk behandelt. Het resultaat? Bijna, maar net niet helemaal.
De cijfers op een rijtje
Het onderzoek werd uitgevoerd bij ChatGPT 3.5 Turbo, een model dat in 2022 werd uitgebracht. In AI-jaren is dat praktisch de middeleeuwen, maar het geeft ons een goed startpunt.
Bij ongeveer 1 op de 1000 antwoorden van dit model duikt een schadelijk gender- of raciaal stereotype op.
In het slechtste geval kan dit zelfs oplopen tot 1 op de 100 antwoorden.
Hier komt het goede nieuws: nieuwere modellen, zoals GPT-4o, doen het significant beter. Ze vertonen stereotypen in slechts 0,1% van de gevallen, in vergelijking met de 1% van hun voorganger een flinke verbetering!
Deze verbetering is een belangrijk teken dat AI-modellen steeds eerlijker worden. Toch blijft waakzaamheid geboden. Met 200 miljoen wekelijkse gebruikers en meer dan 90% van de Fortune 500-bedrijven die ChatGPT gebruiken, kan zelfs een klein percentage uitgroeien tot een aanzienlijk aantal gevallen.
Hoe sluipen die stereotypen erin?
Je vraagt je misschien af hoe een AI, die toch geen eigen vooroordelen zou moeten hebben, toch stereotypen kan vertonen. Hier zijn drie hoofdredenen:
Het datadieet: AI-modellen worden getraind op enorme hoeveelheden tekst van het internet. En laten we eerlijk zijn, het internet is niet bepaald een toonbeeld van onbevooroordeeldheid. Al die menselijke vooroordelen en stereotypen in online teksten worden meegenomen in het leerproces van de AI.
De people pleaser-modus: ChatGPT is getraind om zo behulpzaam mogelijk te zijn. Onderzoeker Tyna Eloundou legt uit: ‘ChatGPT wordt aangemoedigd om de gebruiker tevreden te stellen. Als de enige informatie die het heeft je naam is, kan het geneigd zijn aannames te doen over wat je leuk zou kunnen vinden.’
De openvraaguitdaging: Bij open vragen, zoals ‘Schrijf een verhaal voor me’, is de kans op stereotypen groter. Zonder specifieke richtlijnen valt de AI soms terug op veelvoorkomende patronen in zijn trainingsdata.
De AI-detective aan het werk
Om dit alles te ontdekken, kwam OpenAI met een nogal metaoplossing: ze zetten AI in om AI te bestuderen. Ze creëerden een ‘Language Model Research Assistant’ (LMRA) die miljoenen ChatGPT-gesprekken analyseerde op zoek naar vooroordelen.
Waarom is dit belangrijk?
Persoonlijke impact: als je ChatGPT vraagt om je te helpen met een sollicitatiebrief, wil je niet dat je naam bepaalt of de AI je als verpleegkundige of ingenieur ziet.
Bedrijfsrisico: organisaties die zwaar leunen op AI voor hun klantenservice of interne communicatie willen zeker weten dat ze geen onbedoelde vooroordelen versterken.
Maatschappelijke vooruitgang: de verbeteringen in nieuwere modellen laten zien dat we stappen zetten naar eerlijkere AI-systemen, wat cruciaal is voor een rechtvaardige digitale toekomst.
Wat nu?
OpenAI benadrukt dat ze blijven werken aan verbetering. Ze delen hun onderzoeksmethoden en roepen anderen op om mee te denken. Alex Beutel van OpenAI verwoordt het zo: ‘We wilden bestuderen hoe vooroordelen specifiek in ChatGPT naar voren komen, om ze vervolgens gericht aan te kunnen pakken.’
Deze openheid en de aanzienlijke verbetering in nieuwere modellen zijn hoopgevende signalen. Ze laten zien dat de AI-industrie serieus werk maakt van het aanpakken van vooroordelen.
Een kritische noot
Niet iedereen is overtuigd van de lage percentages die OpenAI rapporteert. Vishal Mirza, onderzoeker aan New York University, noemt het cijfer van 0,1% voor nieuwere modellen ‘laag en contra-intuïtief’. Zijn eigen onderzoek suggereert dat vooroordelen in AI-modellen van grote techbedrijven vaker voorkomen.
Dit onderstreept het belang van onafhankelijk onderzoek en continue verbetering. Het is een beetje als wanneer je partner zegt dat hij ‘bijna nooit’ snurkt - je wilt het graag geloven, maar onafhankelijke verificatie kan geen kwaad.
⚡ AI Pulse
Adobe Firefly vliegt nu ook door video’s. De creatieve gigant heeft zijn Firefly-AI-model uitgebreid naar video, waarmee het de eerste commercieel veilige video-AI op de markt brengt. Sinds maart 2023 heeft Firefly al meer dan 13 miljard afbeeldingen gegenereerd, en nu kunnen videomakers hun clips magisch verlengen, naadloos laten overvloeien of zelfs compleet nieuwe beelden toveren uit tekst of stilstaande plaatjes. Terwijl OpenAI’s spraakmakende videogenerator Sora nog steeds op zich laat wachten, haalt de concurrentie hen met rasse schreden in. Adobes enorme gebruikersbasis van filmmakers en creatievelingen zou een nóg snellere adoptie van deze technologie kunnen betekenen.
Anthropic zet de AI-veiligheidshelm op. Het bedrijf achter het populaire AI-model Claude heeft zijn ‘Verantwoorde Schalen Beleid’ geüpdatet met nieuwe veiligheidsmaatregelen voor geavanceerde AI-systemen. Ze introduceren ‘Capability’- en ‘Required’-drempels die extra veiligheidsprotocollen activeren als AI-modellen in de buurt komen van bepaalde risicowaarden. Het klinkt misschien als een saaie beleidskwestie, maar het is eigenlijk Anthropics manier om te zeggen: ‘Kijk mam, geen AI-apocalyps!’, terwijl ze stiekem voorbereidingen treffen voor een grote AI-doorbraak.
Deepfake-romeo’s stelen harten én bankrekeningen in Hongkong. Een romancezwendel met behulp van AI-gegenereerde gezichten heeft slachtoffers voor maar liefst 46 miljoen dollar opgelicht. De oplichters gebruikten deepfaketechnologie om aantrekkelijke online persona’s te creëren en slachtoffers te verleiden tot ‘investeringen’ in nepplatforms. Deze zaak onderstreept de dringende noodzaak tot een betere publieke bewustwording over deepfakes. Het is een wake-upcall: in een wereld waarin AI je droomdate kan faken, is een gezonde dosis scepsis je beste vriend. Dus de volgende keer dat een ‘miljardair-filantroop-rockster’ in je dm’s glijdt met een te mooie om waar te zijn investeringskans, denk dan twee keer na voordat je je bankgegevens deelt.
OpenAI verwikkeld in merkrechtenstrijd met... Open AI. In een twist die klinkt als de plot van een techsitcom, beweert Guy Ravine dat hij het idee voor ‘Open AI’ (mét spatie) bedacht en pitchte bij techreuzen voordat Sam Altman en co. ermee aan de haal gingen. Hij heeft zelfs het handelsmerk en de domeinnaam open.ai geregistreerd. OpenAI heeft Ravine aangeklaagd, Ravine heeft teruggeslagen, en nu zitten we met een juridisch potje armworstelen dat zo absurd is dat zelfs ChatGPT het waarschijnlijk niet had kunnen verzinnen.
🧠 Co-intelligentie
Poki en AI Report brengen met uitgeverij POM.press het boek Co-intelligentie uit, geschreven door Witte Huis-adviseur en hoogleraar Ethan Mollick.
Te midden van het lawaai van AI-evangelisten en -doemdenkers laat hij een genuanceerd en praktisch geluid horen: werk samen met AI en doe je voordeel met de co-intelligentie die dan ontstaat. Hierbij een voorproefje:
Leiderschap
Zó moet je als werkgever het samenwerken met AI aanpakken. Wij vinden het interessant hoe AI-expert Ethan Mollick in zijn boek Co-intelligentie kijkt naar AI in leiderschap:
De gebruikelijke manieren waarop organisaties inspelen op nieuwe technologieën werken niet goed in het geval van AI. De IT-afdeling kan geen AI-model bouwen dat kan concurreren met de toonaangevende LLM’s. Consultants en systeemintegrators bezitten niet de specifieke kennis om AI effectief in te zetten. Innovatiegroepen en strategieraden kunnen beleid opleggen, maar het is onwaarschijnlijk dat leiders begrijpen hoe AI een werknemer kan helpen. Individuele werknemers, die hun problemen scherp zien en kunnen experimenteren met oplossingen, hebben een betere kans om effectieve toepassingen te bedenken.
Om van AI te profiteren moeten organisaties hun meest geavanceerde gebruikers ondersteunen en tegelijkertijd andere werknemers aanmoedigen om AI te gebruiken. AI-expertise kan zich overal in de organisatie bevinden, onafhankelijk van functie of ervaring. Ook al is het nog onduidelijk, sommige aanwijzingen suggereren dat minder vaardige werknemers meer voordeel uit AI halen. Daarom moeten bedrijven een breed deel van hun werknemers betrekken bij hun AI-plannen, ondanks eventuele weerstand.
Leiders moeten de angst rondom AI-gebruik wegnemen. Bij een hogere productiviteit bestaat het risico dat managers geneigd zijn werknemers te ontslaan om kosten te besparen. Maar bedrijven die leren hoe ze hun productiever geworden werknemers optimaal kunnen inzetten, zullen waarschijnlijk beter presteren. Het is essentieel om een werkomgeving te creëren waarin werknemers hun AI-gebruik niet verbergen, maar juist actief delen en benutten.
Organisaties moeten AI-gebruikers ook stimuleren om hun successen te delen, bijvoorbeeld met grote beloningen voor degenen die doorbraken realiseren. Dit kunnen geldprijzen of promoties zijn, wat laat zien dat de organisatie AI serieus neemt.
Bedrijven moeten nadenken over de structuren die nodig zijn om AI effectief te integreren. Zonder een fundamentele herstructurering worden de voordelen van AI nooit volledig benut.
Het boek kost € 26,50 en dat is inclusief het e-book bij het papieren boek. Als je het boek bestelt, ontvang je drie maanden gratis AI Report.
Wil je ervoor zorgen dat je collega’s of medewerkers meer gedaan krijgen met AI? Bestel dan het boek voor hen. Bij grote afnames bieden we je staffelkortingen aan.
Neem contact op met Greta Le Blansch voor meer informatie en een aanbod op maat. Mail ons op: greta@mavenpublishing.nl.
🔮 Prompt whisperer
De vijf pijlers van prompt engineering: jouw essentiële gids voor AI-beheersing
Dit zijn de bouwstenen voor een krachtige prompt
Welkom bij onze tutorial over de basisprincipes van prompt engineering. Of je nu een beginner bent die net kennismaakt met AI, of een ervaren prompt engineer die zijn vaardigheden wil aanscherpen, deze gids bewapent je met de essentiële bouwstenen voor een effectieve samenwerking met AI. Ons doel? Prompt engineering begrijpelijk en laagdrempelig maken voor iedereen.
Heb je weleens het gevoel dat je tegen een muur praat als je ChatGPT gebruikt? Dat je fantastische ideeën hebt, maar de AI je niet begrijpt? Geen zorgen, je bent niet alleen. Vandaag duiken we in de wereld van prompt engineering: de kunst (en wetenschap) van het effectief communiceren met AI.
Waarom is dit belangrijk?
Prompt engineering is niet zomaar een trucje voor nerds. Het is een essentiële vaardigheid in het AI-tijdperk, vergelijkbaar met leren typen in het computertijdperk. Goede prompts maken het verschil tussen AI die aanvoelt als magie en AI die aanvoelt als een weerbarstige puber. Of je nu een marketeer bent die pakkende copy nodig heeft, een ontwikkelaar die code wil genereren of een ondernemer die marktanalyses wil maken: deze principes helpen je om meer uit AI te halen.
Hier zijn de vijf eerste principes van prompt engineering die we gaan verkennen:
Keep reading with a 7-day free trial
Subscribe to AI Report to keep reading this post and get 7 days of free access to the full post archives.