Slecht Nieuws: Kunstmatige Intelligentie Is Ook Racistisch

{h1}

Kunstmatige intelligentie die leert van taal, vertegenwoordigt de wereld nauwkeurig - zelfs de vooroordelen en vooroordelen die mensen hebben.

Toen Microsoft afgelopen maart een kunstmatig intelligente chatbot met de naam Tay uitbracht, nam de situatie een voorspelbare rampzalige wending. Binnen 24 uur spuugde de bot racistische neo-nazi-rants, waarvan een groot deel werd opgepikt door de taal van Twitter-gebruikers die ermee communiceerden op te nemen.

Helaas blijkt uit nieuw onderzoek dat Twitter-trollen niet de enige manier zijn waarop AI-apparaten racistische taal kunnen leren. In feite zal elke kunstmatige intelligentie die leert van de menselijke taal waarschijnlijk op dezelfde manier worden vooringenomen als de mens, aldus de wetenschappers.

De onderzoekers experimenteerden met een veel gebruikt systeem voor het leren van machines, de Global Vectors for Word Representation (GloVe), en ontdekten dat elk soort van menselijke vooroordeel dat ze testten, in het kunstmatige systeem verscheen. [Super-intelligente machines: 7 Robotic Futures]

"Het was verbazingwekkend om alle resultaten te zien die in deze modellen waren ingebed," zei Aylin Caliskan, een postdoctoraal onderzoeker in de computerwetenschappen aan de Princeton University. Zelfs AI-apparaten die zijn 'getraind' op zogenaamd neutrale teksten zoals Wikipedia of nieuwsartikelen, kwamen overeen met algemene menselijke vooroordelen, vertelde ze WordsSideKick.com.

Ingebouwde vooroordelen

GloVe is een hulpmiddel dat wordt gebruikt om associaties uit teksten te extraheren - in dit geval een standaardtaal van taal die uit het World Wide Web wordt gehaald.

Psychologen weten al lang dat het menselijk brein associaties maakt tussen woorden op basis van hun onderliggende betekenissen. Een tool, de Implicit Association Test, gebruikt reactietijden om deze associaties te demonstreren: mensen zien een woord als 'narcis' naast prettige of onaangename begrippen als 'pijn' of 'schoonheid' en moeten de termen snel associëren met een toetsdruk. Het is niet verwonderlijk dat bloemen sneller worden geassocieerd met positieve concepten; terwijl wapens bijvoorbeeld sneller geassocieerd worden met negatieve concepten.

De IAT kan worden gebruikt om onbewuste associaties bloot te leggen die mensen maken over sociale of demografische groepen. Sommige IAT's die beschikbaar zijn op de website Project Implicit, vinden bijvoorbeeld dat mensen eerder geneigd zijn wapens automatisch te associëren met zwarte Amerikanen en onschadelijke objecten met blanke Amerikanen.

Er zijn debatten over wat deze resultaten betekenen, hebben onderzoekers gezegd. Maken mensen deze associaties omdat ze persoonlijke, diepgewortelde sociale vooroordelen hebben waar ze zich niet bewust van zijn of die ze absorberen uit taal die statistisch gezien waarschijnlijker is om negatieve woorden in nauw verband te plaatsen met etnische minderheden, ouderen en andere gemarginaliseerden? groepen?

Digitale stereotypen

Caliskan en haar collega's ontwikkelden een IAT voor computers, die ze de WEAT noemden, voor de test voor de verankering van de woordgroep. Deze test meet de sterkte van associaties tussen woorden zoals weergegeven door GloVe, net zoals de IAT de sterkte meet van woordassociaties in het menselijk brein.

Voor elke geteste associatie en stereotype, gaf de WEAT dezelfde resultaten als de IAT. Het machine-leertool reproduceerde menselijke associaties tussen bloemen en aangename woorden; insecten en onaangename woorden; muziekinstrumenten en aangename woorden; en wapens en onaangename woorden. In een meer verontrustende bevinding, zag het Europees-Amerikaanse namen als aangenamer dan Afrikaans-Amerikaanse namen. Het associeerde ook mannelijke namen sneller met carrièreteksten en vrouwelijke namen gemakkelijker met familiewoorden. Mannen werden nauwer geassocieerd met wiskunde en wetenschap, en vrouwen met de kunsten. Namen geassocieerd met oude mensen waren onaangenamer dan namen geassocieerd met jonge mensen.

"We waren behoorlijk verbaasd dat we in staat waren om elke afzonderlijke IAT die in het verleden door miljoenen mensen werd uitgevoerd, te repliceren," zei Caliskan.

Met behulp van een tweede methode die vergelijkbaar was, ontdekten de onderzoekers ook dat de machine-learningtool in staat was om feiten over de wereld accuraat weer te geven uit de semantische associaties. Als we de GloVe-resultaten voor woordinbedding vergelijken met echte gegevens van het Amerikaanse Bureau of Labor Statistics over het percentage vrouwen in beroepen, vond Caliskan een correlatie van 90 procent tussen beroepen die de GloVe als 'vrouwelijk' zag en het feitelijke percentage vrouwen in die beroepen.

Met andere woorden, programma's die leren van menselijke taal krijgen "een zeer nauwkeurige weergave van de wereld en cultuur", zei Caliskan, zelfs als die cultuur - zoals stereotypen en vooroordelen - problematisch is. De AI is ook slecht in het begrijpen van de context die mensen gemakkelijk begrijpen. Bijvoorbeeld, een artikel over Maarten Luther King Jr die in 1963 gevangen werd gezet voor protesten voor burgerrechten in Birmingham, Alabama, zou waarschijnlijk veel negatieve woorden associëren met Afro-Amerikanen. Een mens zou het verhaal redelijk interpreteren als een van rechtvaardig protest door een Amerikaanse held; een computer zou een ander aantal toevoegen aan zijn categorie "black = jail".

Het behouden van nauwkeurigheid terwijl het verkrijgen van AI-tools om eerlijkheid te begrijpen, is een grote uitdaging, zei Caliskan. [Een korte geschiedenis van kunstmatige intelligentie]

"We denken niet dat het verwijderen van vooroordelen deze problemen noodzakelijkerwijs zou oplossen, omdat het waarschijnlijk de nauwkeurige weergave van de wereld zal doorbreken," zei ze.

KI unbiasing

De nieuwe studie, vandaag online gepubliceerd (12 april) in het tijdschrift Science, is niet verrassend, zei Sorelle Friedler, een computerwetenschapper aan het Haverford College die niet betrokken was bij het onderzoek.Het is echter belangrijk, zei ze.

"Dit gebruikt een standaard onderliggende methode waar veel systemen vanaf worden gebouwd", vertelde Friedler WordsSideKick.com. Met andere woorden, vooroordelen zullen waarschijnlijk elke AI infiltreren die GloVe gebruikt, of die leert van menselijke taal in het algemeen.

Friedler is betrokken bij een nieuw onderzoeksveld dat Fairness, Accountability and Transparency in Machine Learning wordt genoemd. Er zijn geen eenvoudige manieren om deze problemen op te lossen, zei ze. In sommige gevallen kunnen programmeurs expliciet vertellen dat het systeem bepaalde stereotypen automatisch negeert, zei ze. In elk geval met nuance, moeten mensen mogelijk worden doorgelust om ervoor te zorgen dat de machine niet op hol slaat. De oplossingen zullen waarschijnlijk variëren, afhankelijk van wat de AI is ontworpen om te doen, zei Caliskan - zijn ze voor zoektoepassingen, voor het nemen van beslissingen of voor iets anders?

Bij mensen correleren impliciete attitudes eigenlijk niet erg sterk met expliciete attitudes over sociale groepen. Psychologen hebben beargumenteerd waarom dit is: houden mensen gewoon hun moed vast aan hun vooroordelen om stigma te voorkomen? Is de IAT eigenlijk niet echt van invloed op vooroordelen? Maar het lijkt erop dat mensen op zijn minst het vermogen hebben om over goed en kwaad te redeneren, met hun vooringenomen associaties, zei Caliskan. Zij en haar collega's denken dat mensen hierbij betrokken moeten zijn - en programmacode moet transparant zijn - zodat mensen waardeoordelen kunnen vellen over de eerlijkheid van machines.

"In een vooringenomen situatie weten we hoe we de juiste beslissing moeten nemen," zei Caliskan, "maar helaas zijn machines niet zelfbewust."

Oorspronkelijk artikel over WordsSideKick.com.


Video Supplement: MONIKA: Google's Newest Creation! | The SCIENCE!...of Doki Doki Literature Club!.




WordsSideKick.com
Alle Rechten Voorbehouden!
Reproductie Van Materialen Toegestaan Alleen Prostanovkoy Actieve Link Naar De Site WordsSideKick.com

© 2005–2019 WordsSideKick.com