De Mensheid Moet Een Gevaarlijke Gevangenis 'Aaien' Om Onheil Te Vermijden, Zegt Expert

{h1}

Mensen konden "oordeelsdag" voorkomen door een virtuele gevangenis te bouwen die mogelijk gevaarlijke kunstmatige intelligentie gevangen houdt.

Superintelligente computers of robots hebben het bestaan ​​van de mensheid meer dan eens in sciencefiction bedreigd. Dergelijke doemscenario's kunnen worden voorkomen als mensen een virtuele gevangenis kunnen maken die kunstmatige intelligentie bevat voordat deze gevaarlijk zelfbewust wordt.

Het houden van de kunstmatige intelligentie (AI) genie gevangen in de spreekwoordelijke fles kan een apocalyptische bedreiging veranderen in een krachtig orakel dat de problemen van de mensheid oplost, zei Roman Yampolskiy, een computerwetenschapper aan de Universiteit van Louisville in Kentucky. Maar succesvolle insluiting vereist een zorgvuldige planning, zodat een slimme AI niet zomaar zijn weg naar de vrijheid kan bedreigen, omkopen, verleiden of hacken.

"Het kan nieuwe aanvalspaden ontdekken, geavanceerde social-engineeringaanvallen lanceren en bestaande hardwarecomponenten hergebruiken op onvoorziene manieren", aldus Yampolskiy. "Dergelijke software is niet beperkt tot het infecteren van computers en netwerken - het kan ook menselijke psyche aanvallen, omkopen, chanteren en degenen hersenspoeling die ermee in contact komen."

Een nieuw onderzoeksgebied dat is gericht op het oplossen van het AI-gevangenisprobleem, zou bijkomende voordelen kunnen hebben voor het verbeteren van cybersecurity en cryptografie, stelde Yampolskiy. Zijn voorstel was gedetailleerd in het maartnummer van de Journal of Consciousness Studies.

Een geweldige robot uit de film van 2009

Een moordenaar van de film "Terminator Salvation" uit 2009 - precies het soort toekomst dat we niet willen zien.

Krediet: Warner Bros.

Hoe val Skynet op

Eén startoplossing kan de AI binnendringen in een "virtuele machine" die in het typische besturingssysteem van een computer wordt uitgevoerd - een bestaand proces dat beveiliging toevoegt door de toegang van de AI tot de software en hardware van de hostcomputer te beperken. Dat weerhoudt een slimme KI van dingen doen, zoals het sturen van verborgen Morsecode-berichten naar menselijke sympathisanten door de koelventilators van een computer te manipuleren.

Door de AI op een computer zonder internettoegang te plaatsen, wordt ook voorkomen dat een "Skynet" -programma de verdedigingsnetwerken van de wereld overneemt in de stijl van de "Terminator" -films. Als al het andere faalt, zouden onderzoekers altijd het "denken" van de KI kunnen vertragen door de verwerkingssnelheden van de computer te verlagen, regelmatig op de "reset" -knop drukken of de voeding van de computer afsluiten om een ​​AI onder controle te houden.

Dergelijke beveiligingsmaatregelen behandelen de AI als een bijzonder slim en gevaarlijk computervirus of malware-programma, maar zonder de zekerheid dat een van de stappen echt zou werken.

"De Catch-22 is dat, totdat we een volledig ontwikkelde superintelligente AI hebben, we onze ideeën niet volledig kunnen testen, maar om dergelijke AI veilig te ontwikkelen, moeten we werkende beveiligingsmaatregelen hebben", vertelde Yampolskiy aan InnovationNewsDaily. "Onze beste gok is om beperkende maatregelen te nemen tegen sub-humane AI-systemen en om ze bij te werken als dat nodig is met toenemende capaciteiten van AI."

Computerwetenschapper Roman Yampolskiy heeft voorgesteld om een

Computerwetenschapper Roman Yampolskiy heeft voorgesteld om een ​​"@" -versie van de biohazarad of stralingswaarschuwingsborden te gebruiken om een ​​gevaarlijke kunstmatige intelligentie aan te duiden.

Dankbetuiging: Jeremy Hsu TechMediaNetwork

Stuur nooit een mens om een ​​machine te bewaken

Zelfs een informeel gesprek met een menselijke garde zou een AI in staat kunnen stellen om psychologische trucjes te gebruiken zoals vriendschap sluiten of chanteren. De AI zou kunnen aanbieden om een ​​mens te belonen met een perfecte gezondheid, onsterfelijkheid, of misschien zelfs dode familie en vrienden terug te brengen. Anders zou het kunnen dreigen om vreselijke dingen te doen voor de mens als het eenmaal "onvermijdelijk" ontsnapt.

De veiligste benadering voor communicatie zou de AI alleen in staat stellen om op een meerkeuzevrije manier te reageren om specifieke wetenschappelijke of technologische problemen op te lossen, legde Yampolskiy uit. Dat zou de kracht van AI benutten als een superintelligent orakel.

Ondanks alle voorzorgsmaatregelen, denken veel onderzoekers dat het onmogelijk is om een ​​slimme AI voor altijd achter slot en grendel te houden. Een eerder experiment van Eliezer Yudkowsky, een onderzoekscollega aan het Singularity Institute for Artificial Intelligence, suggereerde dat louter intelligentie op menselijk niveau kon ontsnappen aan een "AI Box" -scenario - zelfs als Yampolskiy erop wees dat de test niet in de meeste gevallen werd gedaan wetenschappelijke manier.

Toch pleit Yampolskiy er sterk voor om AI in de fles te houden in plaats van ons hals over kop te haasten om onze nieuwe machine-overlords te bevrijden. Maar als de AI het punt bereikt waarop het verder gaat dan menselijk wetenschappelijk inzicht om bevoegdheden in te zetten zoals precognitie (kennis van de toekomst), telepathie of psychokinese, zijn alle weddenschappen uitgeschakeld.

"Als dergelijke software erin slaagt zichzelf te verbeteren tot niveaus die aanzienlijk boven intelligentie op menselijk niveau liggen, is het soort schade dat het kan doen echt buiten ons vermogen om te voorspellen of volledig te begrijpen," zei Yampolskiy.

Dit verhaal werd verzorgd door InnovationNewsDaily, een zustersite voor WordsSideKick.com. Je kunt InnovationNewsDaily Senior Writer Jeremy Hsu volgen op Twitter @ScienceHsu. Volg InnovationNewsDaily op Twitter @News_Innovationof op Facebook.


Video Supplement: .




WordsSideKick.com
Alle Rechten Voorbehouden!
Reproductie Van Materialen Toegestaan Alleen Prostanovkoy Actieve Link Naar De Site WordsSideKick.com

© 2005–2019 WordsSideKick.com