De Geest Opladen: Kan Een Digitaal Brein Pijn Voelen?

{h1}

Succesvol het emuleren van menselijke of dierlijke hersenen kan vele ethische, sociale en juridische uitdagingen met zich meebrengen met betrekking tot het lijden dat ze kunnen ondergaan en welke rechten ze hebben, zegt een onderzoeker.

Wetenschappers kunnen op een dag elektronische kopieën van menselijke hersens gebruiken om de aard van de geest te verkennen. Maar is het ethisch om die e-geest te laten lijden en te sterven als iemand het naar wens kan herrijzen en elke herinnering aan het lijden kan verwijderen?

Succesvol emuleren van menselijke of dierlijke hersenen kan veel ethische uitdagingen opleveren met betrekking tot het leed dat deze exemplaren kunnen ondergaan, zegt een onderzoeker.

Wetenschappers volgen verschillende strategieën om intelligente software te maken. In één, genaamd 'whole brain emulation' of 'mind uploading', zouden wetenschappers een brein in detail scannen en die gegevens gebruiken om een ​​softwaremodel te bouwen. Wanneer het op geschikte hardware wordt uitgevoerd, repliceert dit model in essentie het oorspronkelijke brein. [Super-intelligente machines: 7 Robotic Futures]

"Dit is toekomstige, hypothetische technologie, maar veel mensen zijn optimistisch over een eventueel 'post-menselijk' bestaan ​​- en anderen zijn er natuurlijk van overtuigd dat dit absoluut onmogelijk is," zei studie auteur Anders Sandberg, een filosoof aan The University of Oxford University van Humanity Institute in Engeland.

Ethiek van geest-uploads

Hoewel het nog steeds onzeker is of het uploaden van de geest mogelijk is, onderzoekt Sandberg nu de potentiële ethische gevolgen van software die kan lijden.

"Als je denkt dat hele hersenschimmeling op een dag mogelijk is, dan lijkt het aannemelijk dat een emulatie een geest en morele rechten kan hebben," vertelde Sandberg aan WordsSideKick.com.

Sandberg heeft een achtergrond als computationeel neurowetenschapper, die computersimulaties uitvoert van neurale netwerken, die systemen zijn die lijken op hoe hersenen werken.

"Op een avond toen ik mijn computer uitschakelde terwijl ik mijn kantoor verliet, besefte ik dat ik ook een neuraal netwerk verwijderde", herinnert Sandberg zich. "Was ik eigenlijk iets aan het doden? Ik realiseerde me snel dat het netwerk eenvoudiger was dan de metabole netwerken van de bacterie die ik ongetwijfeld platdrukte door alleen maar over de vloer te lopen, maar toch zag ik dat een voldoende complex netwerk de moeite waard kan zijn om voor te zorgen."

Het creëren van complexere kunstmatige netwerken zal waarschijnlijk in stappen plaatsvinden. Voordat iemand de hele hersenspanning van een mens probeert, zullen wetenschappers waarschijnlijk eerst hele hersenemulaties van dieren proberen. Sommigen suggereren inderdaad dat virtuele proefdieren echte dieren zouden kunnen vervangen in wetenschappelijk en medisch onderzoek.

Emulaties van dierenhersenen roepen de belangrijke vraag op of deze kopieën kunnen lijden. Als dat zo is, dragen virtuele experimenten met de e-minds ethische overwegingen. "Als het wreed is om de staart van biologische muizen te knijpen, is dezelfde wrede impuls aanwezig bij het knijpen van de gesimuleerde staart van een geëmuleerde muis," schreef Sandberg online op 14 april in de Journal of Experimental & Theoretical Artificial Intelligence.

"Ik denk dat een moraal persoon zal proberen te vermijden onnodig leed te veroorzaken, zelfs als het in een dier is, dus als een geëmuleerd dierenbrein lijden zou kunnen voelen, zouden we moeten vermijden het toe te brengen als we kunnen," zei Sandberg.

Echter, "er zal waarschijnlijk geen overeenstemming zijn over de vraag of software kan lijden, en geen gemakkelijke manier om het te bewijzen," zei Sandberg. "Ik denk daarom dat we een 'better safe than sorry'-strategie moeten gebruiken en gaan ervan uit dat geëmuleerde dieren hetzelfde niveau van bewustzijn en gevoel kunnen hebben als de echte dieren, en ze behandelen op manieren die pijn vermijden. pijnstillers of het weglaten van pijnstelsels uit de simulaties. " [De 10 Grootste Mysteries van de Geest]

Menselijke uploads

Het aantal vragen over de implicaties van het uploaden van de geest stijgt voor menselijke emulaties. Bijvoorbeeld, het maken van meerdere exemplaren van een mens brengt juridische uitdagingen met zich mee, zei Sandberg.

"Het contractenrecht moet bijvoorbeeld worden bijgewerkt om contracten af ​​te handelen waarbij een van de partijen wordt gekopieerd. Is het contract nu op beide van toepassing?" Sandberg zei. "Hoe zit het met huwelijken? Zijn alle exemplaren afstammelingen van iemand die juridisch schuldig is aan vroegere daden die vóór het kopiëren plaatsvonden?" zei hij, eraan toevoegend dat de exemplaren bevoorrechte informatie over elkaar zouden hebben die hen duidelijke getuigen zou maken tijdens een criminele of andere rechtszaak.

Bovendien: "Hoe moeten stemmen worden toegekend als kopiëren relatief goedkoop is en personen 'stembussen vullen' kunnen doen met kopieën? Beginnen kopieën met gelijke delen van de eigendom van het origineel? Zo ja, hoe zit het dan met inactieve back-upkopieën? Deze kwesties zijn vermakelijk om over te speculeren en zullen ongetwijfeld leiden tot belangrijke juridische, sociale en politieke veranderingen als ze relevant worden. "

Zelfs het creëren van een menselijke wedijver is ethisch twijfelachtig. Het proces zal waarschijnlijk het vernietigen van het oorspronkelijke brein inhouden, waardoor de activiteit gelijkwaardig is aan geassisteerde zelfmoord met een onbekende kans op 'succes'.

Ook: "vroege hersenscans kunnen gebreken vertonen, wat leidt tot hersenbeschadigde emulaties waarvoor we de zorg hebben", zei Sandberg. Het is onderzoekers ethisch verboden om de pluggen van deze emulaties te trekken, en of wetenschappers ze kunnen opslaan en een betere versie proberen te maken, is onzeker.

"Het is duidelijk dat de emulatie van menselijk brein die lijdt net zo slecht is als een menselijk leed," zei Sandberg. "We moeten geëmuleerde mensen respecteren en ze daarom goed behandelen. Zelfs als we twijfels hebben over de vraag of ze echt rechten voelen of verdienen, is het beter om te veronderstellen dat ze dat wel doen."

De beantwoording van de vraag of software kan lijden, kan het nodig maken een menselijke navolging te ontwikkelen waaraan "we kunnen vragen", voelt u zich bij bewustzijn en heeft u pijn? "Zei Sandberg. "Op dat moment denk ik dat we filosofisch relevante informatie zullen gaan krijgen, ik denk dat we het niet alleen kunnen oplossen door te redeneren, we moeten deze systemen bouwen."

Het blijft een open vraag of het moreel is dat een menselijke wedijver vrijwillig zeer pijnlijke en zelfs dodelijke experimenten ondergaat, in de veronderstelling dat de lijdende kopie wordt verwijderd en vervangen door een back-up. De huidige opvattingen over zelfexperimenten voorkomen dergelijk gedrag omdat bepaalde activiteiten nooit aanvaardbaar zijn voor de wetenschap, maar Sandberg merkte op dat de opvattingen over wat onaanvaardbaar leed en risico's vormt, in de loop van de tijd zijn veranderd. [7 absoluut kwaadaardige medische experimenten]

"Emulaties kunnen meerdere keren worden geïnstantieerd, gestopt, verwijderd, hersteld van back-ups enzovoort," zei Sandberg. "Dit verwart veel ethische systemen.

"De kwestie is hier dat de dood meestal slecht is om verschillende samenhangende redenen, zoals lijden, en het is altijd het onomkeerbare stoppen van ervaring en identiteit," zei Sandberg. "Maar emulaties kunnen gedeeltelijke sterfgevallen hebben die niet zo slecht lijken, men kan zich een emulatie voorstellen die hun leven riskeert, wordt vernietigd en vervolgens wordt hersteld vanaf de back-up minus de herinneringen sinds de laatste back-up."

De vragen die de hele hersenkraker stelt, suggereren dat mensen zich misschien willen voorbereiden "op enkele imminente, dramatische veranderingen van enkele tientallen jaren," zei Sandberg.

"Er zou een mogelijkheid zijn om te ontsnappen aan biologie en sterfte, ervan uitgaande dat een overeengekomen emulatie een voortzetting van iemands identiteit was," zei Sandberg. "Het potentieel voor chaos zou groot zijn - de maatschappij moet vooruit kijken voordat de technologie wordt geperfectioneerd om de kans op een goed resultaat te maximaliseren."

Volg ons @wordssidekick, Facebook & Google+. Oorspronkelijk artikel op WordsSideKick.com.


Video Supplement: 2016 Personality Lecture 06: Freud: An Overview.




WordsSideKick.com
Alle Rechten Voorbehouden!
Reproductie Van Materialen Toegestaan Alleen Prostanovkoy Actieve Link Naar De Site WordsSideKick.com

© 2005–2019 WordsSideKick.com