Van zwarte nazi's tot vikings met een kleurtje: Google legt AI-tool Gemini aan de leiband omdat die "de bal misslaat"

Google heeft de mogelijkheden van zijn AI-tool Gemini tijdelijk ingeperkt. In een poging de creatie van stereotiepe afbeeldingen op vlak van ras en gender te vermijden, bleek de slinger bij Gemini namelijk naar de andere kant te zijn doorgeslagen. Dat Gemini plots beelden van nazi's en vikings met Afrikaanse of Aziatische roots de wereld instuurde, bleek de druppel.

Google Gemini, het vroegere Bard en het antwoord van Google op ChatGPT, zal tijdelijk geen AI-beelden van mensen meer kunnen genereren, zo heeft Google aangekondigd. Het bedrijf zegt eerst "recente problemen met Gemini's functie voor afbeeldingsgeneratie" te willen aanpakken. "We zullen binnenkort een verbeterde versie herlanceren."

Aanleiding is de verontwaardiging over wat Google zelf "onnauwkeurigheden in het genereren van bepaalde historische afbeeldingen" noemt. In de voorbije week waren beelden opgedoken, geproduceerd door Google Gemini, waarin "Duitse soldaten uit het jaar 1943" of "Vikings" plots Afrikaanse of Aziatische roots hadden. Of waarin de "founding fathers", de grondleggers van de Verenigde Staten, plots een kleurtje hadden, terwijl het in realiteit allemaal witte mannen waren.

Dat leidde op sociale media tot heuse samenzweringstheorieën dat Google doelbewust zou vermijden om blanke mensen af te beelden. Maar er was tegelijk ook kritiek vanuit de zwarte gemeenschap in de VS, omdat je met een beeld van een zwarte founding father even vlotjes de Amerikaanse geschiedenis van slavernij, racisme en ontvoogdingsstrijd negeert.

Hallucineren

Dat AI-tools al eens durven te "hallucineren" is natuurlijk niet nieuw. Op basis van de data waarop ze getraind zijn, gebeurt het meer dan eens dat ze feiten verzinnen, verdraaien of naar believen (en dus soms ook ongepast) "hersamenstellen". Er zijn legio verhalen over AI-modellen die zwarte gezichten weigeren te herkennen of die een arts steevast als man afbeelden en iemand die poetst als vrouw.

Het lijkt er in dit geval op dat de ontwikkelaars van Google Gemini geprobeerd hebben om net niet in die val te trappen, maar daarbij de gevolgen voor de creatie van historische beelden over het hoofd hebben gezien. Wat er ook van zij, Google was er gisteren snel bij om zich te excuseren: "Gemini's AI-beeldgeneratie genereert een breed gamma aan mensen. En dat is over het algemeen goed, want mensen over de hele wereld gebruiken de tool. Maar hier slaat die de bal mis." Afwachten of de beloofde update de problemen kan verhelpen.

Meest gelezen