Ban Killer Robots Voordat Ze Het Overnemen, Stephen Hawking & Elon Musk Say

{h1}

Elon musk en stephen hawking hebben betoogd dat autonome wapens verboden moeten worden vanwege de dreiging die ze voor de mensheid vormen.

Een wereldwijde wapenwedloop om op kunstmatige intelligentie gebaseerde autonome wapens te maken is bijna zeker, tenzij landen de ontwikkeling van dergelijke wapens kunnen verbieden, waarschuwen verschillende wetenschappers.

Miljardair ondernemer Elon Musk, natuurkundige Stephen Hawking en andere tech luminaries hebben een open brief ondertekend tegen de gevaren van het starten van een wereldwijde wapenwedloop van kunstmatige intelligentie (AI) technologie, tenzij de Verenigde Naties een verbod op wapens ondersteunen die mensen "geen zinvolle controle hebben" over."

De brief, die is uitgegeven door de organisatie Future of Life, wordt vandaag (27 juli) gepresenteerd op de internationale gezamenlijke conferentie over kunstmatige intelligentie in Buenos Aires, Argentinië. [Super-intelligente machines: 7 Robotic Futures]

"De belangrijkste vraag voor de mensheid vandaag is of een internationale AI-wapenwedloop van start gaat of om te voorkomen dat deze begint. Als een grote militaire macht doorzet met de ontwikkeling van AI-wapens, is een wereldwijde wapenwedloop vrijwel onvermijdelijk en het eindpunt van dit technologische traject ligt voor de hand: autonome wapens worden de Kalashnikovs van morgen ", luidt de brief, verwijzend naar de automatische wapens.

De risico's, zeggen de ondertekenaars, kunnen veel groter zijn dan die van kernwapens.

Opstand van de machines

Van zelfrijdende auto's tot sex bots, meer en meer van de fundamentele taken van de mensheid worden overgenomen door robots. De onvermijdelijke opmars van de machines heeft zowel utopische als apocalyptische visies op de toekomst gestimuleerd. Rogue AI die de mensheid bedreigt, is prominent aanwezig in sciencefictionfilms zoals 'The Matrix' en '2001: A Space Odyssey'.

Maar in toenemende mate worden deze angsten niet alleen op het witte doek gespeeld. In feite hebben onderzoekers op het gebied van kunstmatige intelligentie zelf hun zorgen geuit over de manier waarop innovaties in het veld worden ontwikkeld. Met autonome AI-wapens - zoals dronevliegtuigen die mensen zouden kunnen zoeken en doden met behulp van een gezichtsherkenningsalgoritme - zou de technologie hier in een kwestie van jaren kunnen zijn, beweren de schrijvers van de brief.

En hoewel drone-jagers slagveldslachtoffers zouden kunnen beperken, zouden deze autonome bots in de eerste plaats ook de drempel voor het initiëren van conflicten kunnen verlagen, stelt de brief.

Bovendien zouden dergelijke automatische wapens mogelijk in handen kunnen zijn van bijna elke militaire macht op aarde, omdat op AI-gebaseerde moordmachines geen dure of moeilijk verkrijgbare materialen zouden vereisen. Het zou niet lang duren voordat huurmoordenaars, terroristen en andere slechte acteurs hen op de zwarte markt zouden kunnen kopen en ze voor schandelijke doeleinden zouden gebruiken, schreven de wetenschappers.

"Autonome wapens zijn ideaal voor taken zoals moorden, destabilisatie van naties, het onderwerpen van populaties en het selectief doden van een bepaalde etnische groep.We geloven daarom dat een militaire AI-wapenwedloop niet gunstig zou zijn voor de mensheid", stelt de brief.

Dit is niet de eerste keer dat de wetenschaps- en techaluministen hebben gewaarschuwd voor de gevaren van AI. In 2014 zei Hawking dat de ontwikkeling van volledige kunstmatige intelligentie het einde van de mensheid kan betekenen. Zowel Hawking als Musk ondertekenden in januari een brief van dezelfde organisatie waarin ze waarschuwden dat AI grote gevaren in zich bergt, tenzij de mensheid ervoor kan zorgen dat AI-systemen 'doen wat we willen dat ze doen'.

Volg Tia Ghose op tjilpen en Google+. Volgen WordsSideKick.com @wordssidekick, Facebook & Google+. Oorspronkelijk artikel op WordsSideKick.com.


Video Supplement: .




WordsSideKick.com
Alle Rechten Voorbehouden!
Reproductie Van Materialen Toegestaan Alleen Prostanovkoy Actieve Link Naar De Site WordsSideKick.com

© 2005–2019 WordsSideKick.com