Robots Kunnen De Turing-Test Hacken Door Stil Te Blijven

{h1}

Door eenvoudigweg te zwijgen, kunnen computerprogramma's ondervragers in de turing-test voor de gek houden door te denken dat de machines menselijk zijn.

De Turing-test, de essentiële evaluatie die is ontworpen om te bepalen of iets een computer of een mens is, kan een fatale tekortkoming hebben, suggereert nieuw onderzoek.

De test kan momenteel niet bepalen of een persoon met een ander mens of een robot praat als de persoon die wordt ondervraagd, eenvoudigweg kiest om te zwijgen, blijkt uit nieuw onderzoek.

Hoewel het geen nieuws is dat de Turing-test gebreken vertoont, benadrukt de nieuwe studie hoe beperkt de test is voor het beantwoorden van diepere vragen over kunstmatige intelligentie, zei co-auteur Kevin Warwick, een computerwetenschapper aan de Coventry University in Engeland. [Super-intelligente machines: 7 Robotic Futures]

"Naarmate machines steeds intelligenter worden, beginnen ze echt serieuze vragen te worden, of ze nu denken en of we ze verantwoordelijkheden moeten geven," vertelde Warwick WordsSideKick.com. "Het is duidelijk dat de Turing-test niet degene is die hen kan plagen."

Imitatie spel

De nu beroemde Turing-test werd voor het eerst beschreven door de Britse computerwetenschapper Alan Turing in 1950 om vragen te beantwoorden over wanneer en hoe te bepalen of machines sentient zijn. De vraag of machines kunnen denken, vindt hij, is de verkeerde: als ze als mens kunnen overgaan in wat hij het imitatiegame noemde, is dat goed genoeg.

De test is eenvoudig: zet een machine in een kamer, een menselijke ondervrager in een andere kamer en laat ze met elkaar praten via een op tekst gebaseerd gesprek. Als de ondervrager de machine als niet-menselijk kan identificeren, mislukt het apparaat; anders gaat het voorbij.

De eenvoudige en intuïtieve test is enorm invloedrijk geworden in de filosofie van kunstmatige intelligentie. Maar vanaf het begin vonden onderzoekers fouten in de test. Ten eerste richt de game zich op misleiding en is hij overdreven gericht op conversatie als de metriek van intelligentie.

In de jaren zeventig bijvoorbeeld, gaf een vroeg taalverwerkingsprogramma, genaamd ELIZA, Turing-testrechters een run voor hun geld door het imiteren van de truc van een psychiater van het reflecteren van vragen terug naar de vraagsteller. En in 2014 hebben onderzoekers een menselijke ondervrager voor de gek gehouden met een 'chatbot' genaamd Eugene Goostman die was ontworpen om te poseren als een 13-jarige Oekraïense jongen.

Het recht om te zwijgen

Warwick organiseerde Turing-tests voor het 60-jarig jubileum van Turing's dood toen hij en zijn collega Huma Shah, ook een computerwetenschapper aan de Coventry University, iets merkwaardig opmerkten: af en toe braken enkele van de AI-chatbots en bleven stil, waardoor de ondervragers werden verward.

"Toen ze dat deden, kon de rechter bij elke gelegenheid niet zeggen dat het een machine was," vertelde Warwick aan WordsSideKick.com. [De 6 vreemdste robots ooit gemaakt]

Door de regels van de test, als de rechter de machine niet definitief kan identificeren, geeft de machine de test door. Door deze maatregel zou een stille bot of zelfs een steen de Turing-test kunnen doorstaan, zei Warwick.

Aan de andere kant worden veel mensen oneerlijk geteerd als AI, zei Warwick.

"Heel vaak worden mensen geclassificeerd als een machine, omdat sommige mensen domme dingen zeggen," zei Warwick. In dat scenario, als de machineconcurrent gewoon stil bleef, zou hij standaard winnen, voegde hij eraan toe.

Betere tests

De bevindingen wijzen op de noodzaak van een alternatief voor de Turing-test, zei Hector Levesque, professor emeritus computerwetenschappen aan de Universiteit van Toronto in Canada, die niet betrokken was bij het nieuwe onderzoek.

"De meeste mensen erkennen dat, echt, het is een test om te zien of je een ondervrager voor de gek kunt houden," vertelde Levesque WordsSideKick.com. "Het is niet zo verwonderlijk dat er verschillende manieren zijn om ondervragers te misleiden die niet veel te maken hebben met AI of intelligentie."

Levesque heeft een alternatieve test ontwikkeld, die hij het Winograd-schema noemde (vernoemd naar computerwetenschapper Terry Winograd, die voor het eerst met enkele van de vragen in verband met de test kwam).

Het Winograd-schema stelt AI een reeks vragen met duidelijk correcte antwoorden. Het kan bijvoorbeeld vragen: "De trofee past niet in de bruine koffer omdat deze te groot (klein) was. Wat was te groot (klein)?"

Deze vragen staan ​​ver af van de rijke discussies van Shakespeares sonnetten die Turing voor ogen had tussen KI en de mens.

"Ze zijn alledaags en zeker niet in de buurt, zo flitsend als een echt gesprek met iemand," zei Levesque.

Toch vereist correct antwoord een goed begrip van taal, ruimtelijk redeneren en context om erachter te komen dat trofeeën in koffers passen.

En nog steeds hebben andere voorgestelde alternatieven voor de Turing-test zich gericht op verschillende aspecten van menselijke intelligentie, zoals creativiteit.

De Lovelace-test om creativiteit te meten, vereist dat een robot een stuk artistiek werk maakt in een bepaald genre dat voldoet aan de beperkingen van een menselijke rechter. Maar zelfs op dit gebied winnen robots aan gewone stervelingen: eerder dit jaar creëerden onderzoekers een 'nieuw Rembrandt'-schilderij in de stijl van de Nederlandse meester, met behulp van kunstmatige intelligentie en robotschilders.

Oorspronkelijk artikel op WordsSideKick.com.


Video Supplement: Artificial Intelligence - Mind Field (Ep 4).




WordsSideKick.com
Alle Rechten Voorbehouden!
Reproductie Van Materialen Toegestaan Alleen Prostanovkoy Actieve Link Naar De Site WordsSideKick.com

© 2005–2019 WordsSideKick.com