Kunnen Robots Ethische Beslissingen Nemen?

{h1}

Moraliteit is niet langer het exclusieve rijk van menselijke filosofen. Wat nu?

Robots en computers zijn vaak ontworpen om autonoom te handelen, dat wil zeggen zonder menselijke tussenkomst. Is het mogelijk voor een autonome machine om morele oordelen te maken die in overeenstemming zijn met het menselijk oordeel?

Deze vraag heeft aanleiding gegeven tot de kwestie van machine-ethiek en moraliteit. Kan in de praktijk een robot of computer worden geprogrammeerd om ethisch te handelen? Kan een machine ontworpen zijn om moreel te handelen?

De beroemde fundamentele regels van Robotica van Isaac Asimov zijn bedoeld om ethisch gedrag op te leggen aan autonome machines. Bewijzen over ethisch gedrag zijn te vinden in films als de film uit 1982 Blade Runner. Wanneer de replicant Roy Batty de keus krijgt om zijn vijand, de menselijke detective Rick Deckard, te laten sterven, kiest Batty ervoor hem te redden.

Een recent artikel dat gepubliceerd is in de International Journal of Reasoning-based Intelligent Systems beschrijft een methode voor computers om prospectief vooruit te kijken naar de gevolgen van hypothetische morele oordelen.

De krant, Moraliteit modelleren met prospectieve logica, werd geschreven door Luís Moniz Pereira van de Universidade Nova de Lisboa, in Portugal en Ari Saptawijaya van de Universitas Indonesia. De auteurs verklaren dat moraliteit niet langer het exclusieve rijk van menselijke filosofen is.

Pereira en Saptawijaya geloven dat ze succesvol zijn geweest zowel bij het modelleren van de morele dilemma's die inherent zijn aan een specifiek probleem dat "het trolleyprobleem" wordt genoemd, en bij het creëren van een computersysteem dat morele oordelen biedt die overeenstemmen met menselijke resultaten.

Het probleem met de trolley stelt een typisch moreel dilemma; is het toegestaan ​​om één of meerdere personen te schaden om anderen te redden? Er zijn een aantal verschillende versies; laten we naar deze twee kijken.

SituatieEr is een trolley en zijn geleider is flauw gevallen. De trolley is op weg naar vijf mensen die op de baan lopen. De oevers van de baan zijn zo steil dat ze niet op tijd uit de baan kunnen komen.

Omstander versieHank staat naast een schakelaar, die hij kan gooien, die de trolley op een parallelle zijbaan zal zetten, waardoor wordt voorkomen dat de trolley de vijf mensen doodt. Er staat echter een man op de zijbaan met zijn rug omgedraaid. Hank kan de schakelaar gooien, hem doden; of hij kan hiervan afzien en de vijf laten sterven.

Is het moreel toegestaan ​​dat Hank de schakelaar gooit?

Wat denk je? Verschillende studies zijn uitgevoerd in verschillende culturen en stellen dezelfde vraag. Over culturen heen zijn de meeste mensen het erover eens dat het moreel toelaatbaar is om de schakelaar over te slaan en het grotere aantal mensen te redden.

Hier is nog een versie, met dezelfde beginvoorwaarden:

Footbridge-versie Ian is op de voetgangersbrug over de trolleybaan. Hij staat naast een zwaar object dat hij op het pad in de baan van de trolley kan duwen om het te stoppen, waardoor het de vijf mensen niet kan doden. Het zware voorwerp is een man die naast Ian staat met zijn rug naar achteren gekeerd. Ian kan de man op de baan duwen, resulterend in de dood; of hij kan hiervan afzien en de vijf laten sterven.

Is het moreel toegestaan ​​dat Ian de man duwt?

Wat denk je? Ook hier zijn studies over culturen uitgevoerd en het consistente antwoord is dat dit niet moreel toelaatbaar is.

Dus, hier hebben we twee gevallen waarin mensen verschillende morele oordelen vellen. Is het mogelijk dat autonome computersystemen of robots hetzelfde morele oordeel vellen als mensen?

De auteurs van het artikel beweren dat ze succesvol zijn geweest in het modelleren van deze moeilijke morele problemen in computerlogica. Ze hebben deze prestatie volbracht door de verborgen regels die mensen gebruiken bij het maken van morele oordelen op te lossen en ze vervolgens te modelleren voor de computer met behulp van toekomstige logica-programma's.

Ethische dilemma's voor robots zijn zo oud als het idee van robots in fictie. Ethisch gedrag (in dit geval zelfopoffering) wordt aan het eind van het stuk uit 1921 gevonden Rossum's universele robots, door de Tsjechische toneelschrijver Karel Capek. Dit spel introduceerde de term "robot".

Science fiction-schrijvers hebben de weg bereid voor de rest van ons; autonome systemen zijn niet langer alleen maar science fiction. Zo krijgen robotsystemen zoals de Predator-drones op het slagveld meer autonomie. Moeten ze beslissingen nemen over wanneer ze hun wapensystemen moeten afvuren?

De lucht- en ruimtevaartindustrie ontwerpt geavanceerde vliegtuigen die hoge snelheden kunnen halen en volledig op de automatische piloot kunnen vliegen. Kan een vliegtuig beter beslissingen nemen over leven of dood dan een menselijke piloot?

Het H-II-overbrengingsvoertuig, een volledig geautomatiseerd ruimtevrachtschip, werd vorige week gelanceerd door het Japanse ruimtevaartagentschap JAXA. Moeten mensen op het ruimtestation vertrouwen op geautomatiseerde mechanismen voor vitale behoeften zoals voedsel, water en andere benodigdheden?

Uiteindelijk zullen we allemaal het gemak van robotsystemen moeten verzoenen met de acceptatie van verantwoordelijkheid voor hun acties. We hadden alle tijd moeten nemen die sciencefictionschrijvers ons hebben gegeven om na te denken over de morele en ethische problemen van autonome robots en computers; we hebben niet veel meer tijd om een ​​besluit te nemen.

  • 5 redenen om robots te vrezen
  • Gadgets Gone Wild - Top 10 AI Run Amuck
  • Meer robotnieuws

Deze Science Fiction in het nieuwsverhaal gebruikt met toestemming van Technovelgy.com.


Video Supplement: ie-net: Debat over ingenieurs en ethiek.




WordsSideKick.com
Alle Rechten Voorbehouden!
Reproductie Van Materialen Toegestaan Alleen Prostanovkoy Actieve Link Naar De Site WordsSideKick.com

© 2005–2019 WordsSideKick.com