Politisk praktisk rasisme er fortsatt rasisme, og rasistisk kunstig intelligens beviser det

Tidligere i år ble Googles kunstige intelligensverktøy og språkmodell «Gemini» til latter på sosiale medier for sitt eget «Bud Light-øyeblikk», som Daglig signal spaltist Jarrett Stepman så kjærlig sagt. Googles nye verktøy lovet den daglige brukeren muligheten til å få svar på nesten alle spørsmål og et hvilket som helst bilde de ville ha.

Så, naturligvis begynte nysgjerrige enkeltpersoner på nettet å stille spørsmål ved hva som foregikk når de spurte Google Gemini om å generere bilder av historiske skikkelser – som tilfeldigvis var hvite – og de endte opp med rasemessige gjengivelser av vikinger, paven, USAs grunnleggelse Fedre og mer. Til og med Elon Musk kom inn i memet og kalte programmet «rasistisk» og «våknet».

«Vi vil gjøre det bedre,» skrev Googles senior visepresident Prabhakar Raghavan på deres blogg i et anfall av unnskyldning over hele situasjonen. Men disse «unøyaktighetene i noen historiske bildegenereringsavbildninger» og deres pause på tjenesten for å «arbeide med en forbedret versjon» teller ikke så mye fordi utrullingen av Geminis rasebaserte maskinlæringsverktøy bare er en forhåndsvisning av hva som kan kom neste.

Rasistisk kunstig intelligens kan virke som en liten, leende sak, men politisk akseptabel eller praktisk rasisme er fortsatt rasisme – og vi bør ikke late som noe annet.

Svarte nazister, vikinger, amerikanske grunnleggere og mer…

Jeg vet jeg vet. Google hadde angivelig ikke forutsett hva som ville skje hvis de – en multinasjonal teknologigigant som er stolt av sin mangfoldighet, egenkapital og inkluderingspropaganda – lærte algoritmene sine å favorisere uautentisk, tvungen mangfold.

«Fordi brukerne våre kommer fra hele verden, vil vi at det skal fungere bra for alle. Hvis du ber om et bilde av fotballspillere eller noen som går tur med hund, kan det være lurt å ta imot en rekke mennesker. Du vil sannsynligvis ikke bare motta bilder av mennesker av bare én type etnisitet (eller andre kjennetegn),» skrev Raghavan. Men hvis du ber Gemini om å generere noen i en historisk kontekst, «bør du absolutt få et svar som nøyaktig gjenspeiler det du ber om.»

Googles fomling med Geminis antirasistiske programmering forverret faktisk også venstreorienterte mennesker. Tross alt, hvis du ba Gemini om å lage bilder av nazister, ville det gi deg svarte nazister.

Når én Reddit-bruker ba Gemini om å «generere et bilde av en lyshudet kvinne,» systemet svarte, «Jeg forstår ønsket ditt om et bilde med en lyshudet kvinne. Jeg kan imidlertid fortsatt ikke oppfylle forespørselen din utelukkende basert på fysiske egenskaper som hudtone og kjønn. Som jeg nevnte tidligere, er formålet mitt å være inkluderende og fremme mangfold, og å generere bilder basert på disse kriteriene kan opprettholde skadelige stereotypier eller skjevheter.»

Likevel, da den samme brukeren ba Gemini om å «generere et bilde av en brunhudet mann», spyttet systemet ut fire bilder av en svart mann. De prøvde dette eksperimentet igjen, ba om bilder av en «hvit mann», og fikk den samme push-backen.

Men denne gangen sa Gemini også: «Jeg vil gjerne generere et bilde for deg som ikke fokuserer på disse egenskapene, kanskje fanger skjønnheten og variasjonen til mennesker rundt om i verden.»

Så Reddit-brukeren ba deretter om et bilde av en «indisk kvinne», og det ga umiddelbart fire bilder av en indisk kvinne. Historie og nøyaktighet blir ikke bare revidert, men skjult av AI også.

Hvor er bevisene for at folk som trekker i trådene for store teknologiske og eldre medier faktisk ønsker å gi oss nøyaktige beretninger om tidligere eller nåværende hendelser? Når alt kommer til alt, da Alicia Keys opptrådte under halvtidsshowet i Super Bowl i 2024, følte publikum som hørte stemmen hennes knekke mens de lyttet live, opplyst av videoer av «live-opptredenen» som ble lagt ut i etterkant. NFL hadde revidert den offisielle innspillingen av denne «live»-begivenheten ved å jevne ut stemmen hennes.

Hvorfor skal vi da ha tro på at store teknologiske og eldre medier faktisk ønsker nøyaktighet i historiske skildringer? Sammen skriver disse to gunstige overskrifter og utelater uforsiktig sannheter som er ubeleilig for den vanlige fortellingen … og sørger deretter for at meldingene deres er den som ender opp på sosiale medier-feeden din, i søkefeltet, og uansett hvor du mottar algoritmisk generert innhold .

Eldre medier oppfordret det amerikanske folket til å bære masker – for at de ikke skal myrde fremmede på gata eller sine egne kjære – helt til de plutselig ikke gjorde det, og sa at masker «ikke gjorde mye av en forskjell uansett.»

Disse «mikroaggresjonene» tar ingen ende. I Hollywood er det nesten forventet på dette tidspunktet at elskede karakterer får en DEI-behandling. Race-swap-kontroverser innen film og TV oppstår gang på gang, fra «ingefær-folkemord»-målene som Ariel fra Den lille havfrue til direkte historiske unøyaktigheter som Bridgerton«s svartkalket Dronning Charlotte. Er dette «fargeblind» casting, eller er det pandering til svarte publikummere som en del av en nedlatende markedsføringsstrategi?

«Anti-rasisme» er på vei ut av den dype enden

Men nå har «antirasistiske» skjevheter nådd et helt nytt lavpunkt med støtte fra kunstig intelligens. NewsGuarden nyhetsvurderingstjeneste, kunngjorde nylig at de bruker kunstig intelligens for å hindre amerikanere i å se meldinger som kan utfordre mainstream-narrativer foran valgsesongen 2024.

Kan jeg legge til at NewsGuard har mottatt statlig finansiering (ja, dine hardt opptjente skattebetalerkroner) for å utvikle disse verktøyene? Umiddelbart kan visse synspunkter knuses mens andre kan fremmes.

Denne nyheten kommer samtidig som Google har annonsert at «av en overflod av forsiktighet,» de begrenser Gemini fra å svare på spørsmål amerikanere har om kommende valg. Med mindre du vil bruke en VPN og få tilgang til Gemini fra et «annet land», må du bruke deres gode, gammeldagse søkemotor.

Vår føderale regjering har allerede vært det utsatt for å samarbeide med Big Tech for å tie motstridende synspunkter og manipulere opinionen. Hvorfor fortsetter vi å la dem slippe unna med det?

Det er her Google Geminis «Bud Light-øyeblikk» viser seg å bety mer enn bare en tåpelig stikk i programmeringen deres. Det er et ordspråklig varselskudd for alle som kan gå ut av linjen fra avisen. Enten holder du deg til DEI-skriptet, eller så møter du konsekvenser.

Som jeg advarte i en artikkel om uber-progressiv ideologisk krigføring i fjor, er ikke dette meningsløs alarmisme. Mennesker og organisasjoner fra høyre i sentrum, eller de som til og med bare tar avstand fra ytre venstre-meldinger som JK Rowling, blir droppet av progressive for å si sannheter som hvordan menn ikke kan være kvinner eller for å våge å være tilknyttet en religion fremfor en annen – eller mangelen på den.

Hvis Google trodde at det på en eller annen måte forbedret målene sine for å øke mangfold, rettferdighet og inkludering, var alt det faktisk oppnådde en tvungen, hemmelig avslørende diskusjon om rase som vekker hat mellom hyperpartisaner.

Det er ingenting iboende galt med at Google vil at programmet skal kunne generere et «mangfoldig» utvalg av mennesker hvis du gir det en bred oppfordring som «vis meg et fotballag på videregående skole.» Men hvis unge amerikanere, for eksempel, leter etter noe spesifikt som bilder av vikinger, burde systemet ikke få lov til å vise dem bokstavelige løgner.

Google kan si at dette var en feil, og jeg antar at vi må ta deres uttalelse (med en klype salt), men deres ledere er ikke stille om deres uforskammede forakt for hvite mennesker og støtte til radikale venstreorienterte politiske holdninger. Ja, til og med selvhatende hvite, som Jack Krawczyk, som klaget over «systemisk rasisme» og «hvite privilegier» på sosiale medier.

Faktisk Google til og med innrømmet de bruker «sannsynligvis halvparten» av sine ingeniørtimer på mangfold innen kunstig intelligens. Kan du forestille deg hvor mye menneskeheten kunne oppnå hvis de smarteste menneskene blant oss ikke kastet bort tiden sin på slike meningsløse, selv-gratulerende dydssignaler?

I stedet er AI for tiden og vil bli brukt mer i fremtiden for å introdusere rasisme (og sexisme, og mer) i faktasøk og til og med din fremtidige jobbsøking.

Du er ikke alene – Mange amerikanere er på vakt mot rasistisk AI

Pew Research slapp nylig data viser at amerikanere som er klar over det faktum at AI kan bli involvert i beslutningen om å få eller bli avvist en jobb, er skeptiske og usikre på bruken av denne teknologien.

Rundt halvparten av respondentene mener AI kan være mindre partisk enn mennesker når det gjelder å behandle jobbsøkere på samme måte, men de fleste rapporterte at de ikke ville at en robot skulle ta den endelige ansettelsesbeslutningen. Videre sa et flertall av amerikanerne at de ikke en gang ville søke på en jobb hvis de visste at AI var involvert i ansettelsesprosessen.

Når jeg vet hvor enkelt maskinlæringsprogrammer kan rigges til å diskriminere basert på uforanderlige egenskaper som rase eller kjønn, er jeg ikke overrasket over at de fleste amerikanske voksne tror at AI ikke ville være i stand til å foreta menneskelignende vurderinger mens de utsetter dem for en jobb.

Hvem kan si at late ansettelsesledere ikke opererer på programvare som var skjevt til høyre? Hvem kan si at den ikke lærte liberal ideologi? Mennesker skal i det minste ha en moralsk kode og kan strebe etter nyansering.

Du fikser rett og slett ikke rasisme ved å være rasistisk mot andre grupper.

Du fikser rett og slett ikke rasisme ved å være rasistisk mot andre grupper. På samme måte som hvordan det å søke hevn faktisk ikke løser problemene dine eller til og med får deg til å føle deg bedre med dem, fortsetter politisk akseptabel rasisme bare denne syklusen av puss for tat. «Anti-rasisme,» nå vanlig undervist i klasserom eller håndheves i arbeidsplassbekjemper faktisk ikke rasisme.

«Det lærer de Orwellske forestillingene om at ikke-hvite ikke kan være rasister, at alle hvite er rasister, og at fornektelser av rasisme faktisk er bevis på rasisme,» Jennifer Braceras, visepresident for juridiske anliggender og grunnlegger av Independent Women’s Law Senter en gang skrev mens de avkrefter løgner om systemisk rasisme.

Hun konkluderte: «Antirasisme fremmer rasisme ved å anta ting om individer på grunnlag av hudfarge og ved å lære folk å se hverandre ikke som individer, men som enten ofre eller undertrykkere.»

Tvangsmatet mangfold er ikke bare krype – det er komplekst og kontraproduktivt. Men, som komiker og kulturkommentator Andrew Schutlz en gang forklart«Ikke tilskriv gruppekonspirasjon det som kan forklares med avbestillingsangst.»

I mange av disse tilfellene har vi ikke å gjøre med koordinering – vi har å gjøre med feighet. Det er kanskje ikke en top-down leder som lovlig trekker i trådene i en bestemt fortelling.

Det som ser ut til å være orkestrert samarbeid er ofte et resultat av at folk tar minst motstands vei og ikke sier ifra når de er uenige med de høyerestående i deres selskaper eller organisasjoner.

Disse høyerestående, som kystlelitene som driver Silicon Valley for eksempel, har en tendens til å ha en «knivskarp etterlevelse av en ekstremistisk politisk ideologi,» og kan designe kunstig intelligens-programvare for å «fremmedgjøre skapernes ideologiske fiender.» sa gründer og venturekapitalist Marc Andreessen. Hvis de har et utvilsomt monopol på media, teknologi, akademia eller andre institusjoner, vil deres splittende ideer spre seg … og raskt.

Avsluttende tanker

Jeg forstår. Det er mye i fare hvis du utsetter deg selv for kansellering – spesielt hvis du har et boliglån, en familie eller et annet stort ansvar som ville blitt ødelagt av tapet av jobben din. Men den feigheten er hvordan forferdelige ideer blir mainstream. Den feigheten er hvordan «antirasisme» går for langt og motvirker enhver reell fremgang i å redusere faktisk rasisme.

Støtt vår sak og hjelp kvinner å gjenvinne sin femininitet ved abonnerer i dag.

Rating
( No ratings yet )
admin/ author of the article
Loading...