AI Beter compromis dan mensen, vindt nieuwe studie

$config[ads_kvadrat] not found

Using A.I. to build a better human | The Age of A.I.

Using A.I. to build a better human | The Age of A.I.
Anonim

Laten we eerlijk zijn. Sinds kunstmatige intelligentie voor het eerst werd gedroomd, zijn mensen bang geweest voor de dag dat onze AI-opperheren het overnemen. Maar sommige onderzoekers hebben het vermogen van kunstmatige intelligentie getest om niet alleen concurreren met de mensheid, maar ook met samenwerken.

In een studie gepubliceerd op donderdag in Natuurcommunicatie een team van BYU computerwetenschappelijke professoren, Jacob Crandall en Michael Goodrich, samen met collega's van het MIT en andere universiteiten, hebben een algoritme ontwikkeld om computersamenwerking en compromis aan te leren.

De onderzoekers programmeerden de machines met een algoritme genaamd S # en voerden ze door een aantal spellen met verschillende partners - machine-machine, mens-machine en mens-mens - om te testen welke koppeling de meeste compromissen zou opleveren. Machines (of in ieder geval degenen die met S # zijn geprogrammeerd) blijken veel beter in staat compromissen te sluiten dan mensen.

Maar dit zou meer kunnen zeggen over "menselijke tekortkomingen", vertelt onderzoeker Jacob Crandall omgekeerde. "Onze menselijke deelnemers hadden de neiging om ontrouw te zijn - ze zouden kapot gaan in een coöperatieve relatie - en oneerlijk - ongeveer de helft van onze deelnemers koos ervoor om hun voorstellen niet te volgen - op een bepaald moment in de interactie."

Machines die waren geprogrammeerd om eerlijkheid te waarderen, aan de andere kant, waren eerlijk. "Dit specifieke algoritme leert dat morele eigenschappen goed zijn. Het is geprogrammeerd om niet te liegen, en het leert ook om de samenwerking te behouden als het eenmaal opduikt, "zegt Crandall.

Bovendien bleek uit het onderzoek dat bepaalde samenwerkingsstrategieën effectiever waren dan andere. Een daarvan was 'goedkoop praten', eenvoudige verbale signalen die reageren op een bepaalde situatie, zoals 'liefje. We worden rijk! "Of" Ik accepteer je laatste voorstel. "Of, om ongenoegen te uiten," Vervloek je! "" Daar betaal je voor! "Of zelfs" In jouw gezicht!"

Ongeacht het type spel dat werd gespeeld of wie er speelde, verdubbelde goedkoop praten de hoeveelheid samenwerking. Het humaniseerde ook de machines, waarbij menselijke spelers vaak niet in staat waren om te vertellen of ze interactie hadden met een machine of een mens.

Omdat de focus van dit onderzoek lag op het testen van het S # -algoritme, is één tekortkoming van het onderzoek dat het geen rekening houdt met culturele verschillen tussen mensen die van invloed kunnen zijn op hoe verschillende menselijke populaties strategieën kunnen gebruiken of interpreteren, zoals goedkoop praten, of hoe veel menselijke spelers begaan misschien misleiding of ontrouw.

Precies in het laatste korte verhaal van het beroemde boek uit 1950 van Isaac Asimov Ik robot - "The Evitable Conflict" - AI-opperheren doen in feite de wereld overnemen.Maar omdat ze zo redelijk zijn en geprogrammeerd met enkele onbreekbare ethische regels, is het een goede zaak voor de mensheid. En, zoals deze studie aantoont, omdat menselijke interacties rommelig en ingewikkeld zijn, kunnen we machines misschien vertrouwen. Veronderstellend natuurlijk, als zij voor eerlijkheid geprogrammeerd zijn.

Abstract:

Omdat Alan Turing kunstmatige intelligentie voor ogen stond, werd de technische vooruitgang vaak gemeten aan het vermogen om mensen te verslaan in zero-sum-ontmoetingen (bijvoorbeeld Chess, Poker of Go). Er is minder aandacht besteed aan scenario's waarin samenwerking tussen mens en machine voordelig maar niet-triviaal is, zoals scenario's waarin voorkeuren voor mens en machine niet volledig op elkaar zijn afgestemd of volledig met elkaar in conflict zijn. Samenwerking vereist geen pure computationele kracht, maar wordt gefaciliteerd door intuïtie, culturele normen, emoties, signalen en vooraf ontwikkelde disposities. Hier ontwikkelen we een algoritme dat een geavanceerd wapeningsalgoritme combineert met mechanismen voor signalering. We laten zien dat dit algoritme kan samenwerken met mensen en andere algoritmen op niveaus die wedijveren met menselijke samenwerking in een verscheidenheid van herhaalde stochastische spellen met twee spelers. Deze resultaten geven aan dat algemene samenwerking tussen mens en machine haalbaar is met behulp van een niet-triviaal, maar uiteindelijk eenvoudig, stel algoritmische mechanismen.

$config[ads_kvadrat] not found