I dag bruger flere og flere AI til alt fra at generere tekster til billeder og videoer – men det er ikke altid det historisk korrekte resultat, der kommer ud af det. Det opdagede brugeren @BasedTorba, og han delte på det sociale medie X et eksempel. Google's AI-billedgenerator, Gemini, kreerede nemlig en asiatisk og afrikansk viking fremfor en hvid.
Disse unøjagtige fremstillinger har ført til beskyldninger om, at Google Gemini promoverer en ekstremt "woke" kultur, skriver DR.
Debarghya Das, en tidligere softwareingeniør hos Google Search, skriver på det sociale medie X: ”It's embarrassingly hard to get Google Gemini to acknowledge that white people exist".
Gemini er sat på hold
I kølvandet på kritikken har Google midlertidigt suspenderet billedgenerationsfunktionen i Gemini. Google reagerer selv på de aktuelle hændelser med en udtalelse på X. Her skriver de, at Gemini ikke altid rammer helt rigtigt. Faktisk indrømmer Google åbent, at Gemini ikke producerer historisk korrekte billeder, men i stedet kan tilbyde et mere "inkluderende og alsidigt" billede.
Derfor er Gemini også sat på standby, indtil Google får styr på den data, som AI-billedgeneratoren tager udgangspunkt i.
Der er også indlejret værdi i AI
Google og Open-AI, som har udviklet Chat-GPT, er begge amerikanske firmaer. Så de værdier, de indlejrer i deres produkter, er også amerikanske.
"De her modeller er trænet på data. Den data, vi vælger at lægge ind, er der værdier i. Den måde vi laver algoritmer på, er også fyldt med værdier", udtaler Sine Zambach til DR. Hun forsker til dagligt i kunstig intelligens og data science ved CBS.