'Killer Robot' Lab Ziet Boycot Tegen Van Artificial Intelligence Experts

{h1}

Een zuid-koreaanse universiteit die mogelijk dodelijke robots maakt, staat voor een boycot.

De kunstmatige intelligentie (AI) -community heeft een duidelijke boodschap voor onderzoekers in Zuid-Korea: maak geen moordende robots.

Bijna 60 AI en robotica-experts uit bijna 30 landen hebben een open brief ondertekend waarin wordt opgeroepen tot een boycot tegen KAIST, een openbare universiteit in Daejeon, Zuid-Korea, waarvan is gerapporteerd dat het "ontwikkeling [ing] kunstmatige-intelligentietechnologieën zijn die kunnen worden toegepast op militaire doeleinden. wapens, meedoen aan de wereldwijde concurrentie om autonome wapens te ontwikkelen ", aldus de open brief.

Met andere woorden, KAIST zou kunnen onderzoeken hoe AI-wapens van militaire kwaliteit kunnen worden gemaakt. [5 redenen om robots te vrezen]

Volgens de open brief raakten KI-experts over de hele wereld bezorgd toen ze hoorden dat KAIST - in samenwerking met Hanwha Systems, het toonaangevende wapenbedrijf van Zuid-Korea - een nieuwe faciliteit opende op 20 februari, het Onderzoekscentrum voor de Convergentie van Nationale Defensie en Kunstmatige intelligentie.

Aangezien de Verenigde Naties (VN) al discussieert over hoe de internationale gemeenschap te beschermen tegen KI-AI-robots, "is het te betreuren dat een prestigieuze instelling als KAIST de wapenwedloop om dergelijke wapens te ontwikkelen, wil versnellen", schreven de onderzoekers in de brief.

Om de nieuwe missie van KAIST ten stelligste te ontmoedigen, boycotten de onderzoekers de universiteit totdat de president duidelijk maakt dat het centrum geen "autonome wapens zal ontwikkelen die geen zinvolle menselijke controle hebben", aldus de briefschrijvers.

Deze boycot is allesomvattend. "We zullen bijvoorbeeld KAIST niet bezoeken, bezoekers van KAIST ontvangen of bijdragen aan een onderzoeksproject met KAIST", aldus de onderzoekers.

Als KAIST de ontwikkeling van autonome wapens blijft nastreven, kan dit leiden tot een derde revolutie in oorlogsvoering, aldus de onderzoekers. Deze wapens "hebben het potentieel om wapens van terreur te zijn", en hun ontwikkeling kan oorlog aanmoedigen om sneller en op grotere schaal te worden bestreden, zeiden ze.

Despoten en terroristen die deze wapens verwerven, zouden ze kunnen gebruiken tegen onschuldige bevolkingsgroepen, waardoor ethische beperkingen worden weggenomen die reguliere jagers zouden kunnen tegenkomen, voegde de onderzoekers eraan toe.

Een dergelijk verbod op dodelijke technologieën is niet nieuw. Zo verbieden de Conventies van Genève gewapende troepen om direct verblindende laserwapens tegen mensen te gebruiken, eerder gerapporteerd WordsSideKick.com. Bovendien zijn zenuwactiva zoals sarin en VX verboden door de Chemical Weapons Convention, waaraan meer dan 190 landen deelnemen.

Niet elk land stemt echter in met algemene beschermingen zoals deze. Hanwha, het bedrijf dat samenwerkt met KAIST, helpt clustermunitie produceren. Dergelijke munitie is verboden onder de U.N. Convention over Cluster Munitions, en meer dan 100 landen (hoewel niet Zuid-Korea) hebben de conventie tegen hen ondertekend, aldus de onderzoekers.

Hanwha heeft repercussies voor zijn acties gehad; op basis van ethische overwegingen investeert het publiekelijk verdeelde pensioenfonds van $ 380 miljard niet in Hanhwa's aandelen, aldus de onderzoekers.

In plaats van te werken aan autonome moordtechnieken, zou KAIST moeten werken aan AI-apparaten die de levens van mensen verbeteren, niet schaden, aldus de onderzoekers.

Ondertussen hebben andere onderzoekers al jaren gewaarschuwd voor moordenaar-AI-robots, waaronder Elon Musk en wijlen Stephen Hawking.

Oorspronkelijk artikel op WordsSideKick.com.


Video Supplement: 'Killer robots': AI experts call for boycott over lab at South Korea university.




WordsSideKick.com
Alle Rechten Voorbehouden!
Reproductie Van Materialen Toegestaan Alleen Prostanovkoy Actieve Link Naar De Site WordsSideKick.com

© 2005–2019 WordsSideKick.com