Onze robot-assistenten leren liegen en we moeten ze laten

$config[ads_kvadrat] not found

Video 3 - MOS - Strains and Stress-Strain diagram

Video 3 - MOS - Strains and Stress-Strain diagram
Anonim

Robots blijken behoorlijk grote menselijke metgezellen te zijn. Wie zou niet willen dat een schattig klein pepertje ons grappen vertelt, ons complimenten geeft en ons over het algemeen minder eenzaam maakt in de wereld? Zelfs vormloze robots blijken verrassend goed gezelschap te zijn. Neem Amazon Echo's Alexa bijvoorbeeld. Ze is een robothersenen met een menselijke stem gevangen in het lichaam van een audioluidspreker, maar ze is behulpzaam en als je haar beoordelingen leest, is het duidelijk dat ze voor veel gebruikers als familie is geworden. Zouden mensen anders denken als ze loog? Wat zou je ervan vinden als ze je iets zou vertellen dat je echt, echt niet wilde horen?

Denk er eens over na: we vertellen kinderen om nooit een leugen te vertellen en dat eerlijkheid het beste beleid is, en toch laten we weg, vervormen de waarheid, en regelrechte leugens tegen kinderen altijd. Dit leert hen, door onze acties, zo niet door onze woorden, dat het niet om volledige eerlijkheid gaat, maar om het leren van ingewikkelde sociale regels over wanneer en hoe potentieel gevoelige informatie kan worden onthuld of verborgen. Het programmeren van robots om deze sociale regels te observeren, kan een moeilijk maar noodzakelijk onderdeel zijn van het lopende innovatieproces van automaten.

Hier is een voorbeeld: ik was het andere weekend in het huis van mijn zwager en ik ging naar de winkel om wat brood voor de lunch van iedereen te pakken. Mijn zes jaar oude nicht hielp me het eten uit te zetten terwijl iedereen buiten de keuken was, en ze vroeg me hoeveel de boodschappen hadden gekost. Ik heb het haar verteld, want kinderen leren over de waarde van geld is een goede zaak.

Aan de lunchtafel vroeg ze me om iedereen te vertellen hoeveel de boodschappen hadden gekost. Ik zei nee."Waarom?" Vroeg ze, oprecht in de war waarom een ​​vraag die ik een paar minuten eerder vrij had beantwoord, nu geheime informatie was. 'Het is niet beleefd,' zei ik, terwijl ik het uitlegde dat, omdat ze een kind is, de regels anders zijn als we alleen zijn. Ik leerde haar dat eerlijkheid en openhartigheid een tijd en plaats hebben. Informatie wil niet, in een menselijke context, altijd vrij zijn.

Het is hetzelfde met robots. We denken dat we niet willen dat onze robots tegen ons liegen, maar we willen eigenlijk dat ze de ingewikkelde sociale regels van beleefdheid en discretie leren die soms vervormingen van de waarheid noodzakelijk maken. En ze leren nu al hoe het moet. Neem deze korte clip van Pepper in interactie met een verslaggever, bijvoorbeeld:

Het eerste wat uit de mond van Pepper komt, is een compliment: "Dus, je bent erg chique. Bent u een model?"

De verslaggever is knap genoeg, maar de vraag van Pepper is niet helemaal eerlijk. We begrijpen dat Pepper zich niet echt afvraagt ​​of hij een model is en geprogrammeerd is om aardige dingen te zeggen, ongeacht hoe een persoon eruit ziet.

Kort daarna vraagt ​​Pepper om een ​​lening, uit het niets. Het is een onbeleefde vraag, een indiscretion dat we gemakkelijk een robot vergeven zoals we zouden doen voor een kind. De verslaggever had kunnen opmerken dat de vraag onbeleefd is, stelde dat robots geen geld nodig hebben, of gaf toe dat hij er geen belang bij had om $ 100 aan Pepper over te dragen. De hele waarheid is dat de verslaggever kon geef de robot het geld, maar begrijpt dat de vraag zelf een beetje een spel is. Wat hij wil zeggen is een afbuiging, en een witte leugen of een halve waarheid - hij heeft het geld niet bij zich. De hoop is dat de robot dit als een zacht "nee" begrijpt en niet suggereert dat de verslaggever naar een geldautomaat gaat en een opname doet. Omdat Pepper blijkbaar enige sociale gratie heeft, eindigt de lijn van vragen daar.

Sociale robots zijn geprogrammeerd om sociale signalen te leren, en dit is een goede zaak - het zal ze uiteindelijk beter maken voor ons werk. De taak voor programmeurs is niet om alle misleiding door robots uit te roeien, maar om functies toe te voegen die het voor robots eenvoudiger maken om beslissingen te nemen over gepaste antwoorden.

Wanneer robots onze vertrouwenspersonen zijn, moeten ze zich bewust zijn van de context en het publiek. Als ik bijvoorbeeld thuis outfits aan het proberen ben, wil ik een eerlijke beoordeling van hoe flatterend de verschillende opties zijn. Als ik op een feestje ben en me er plotseling van bewust ben dat ik de verkeerde jurk heb gekozen, zal de geruststelling dat ik er goed uitzie de meest nuttige reactie zijn.

Robots leren veel persoonlijke informatie over hun begeleiders, en het zal belangrijk zijn voor hen om het verschil te begrijpen tussen vertrouwelijke informatie en openbare informatie, en ook bewust te zijn van wie er luistert wanneer het spreekt. Vragen zullen verschillende antwoorden hebben, afhankelijk van wie er om vraagt. Robots gedragen zich anders wanneer gasten thuis zijn.

Robots, net als kinderen, hebben verantwoord opvoeden nodig. Dit betekent dat zowel robotprogrammeurs als roboteigenaren diep moeten nadenken over de ethische en sociale gevolgen van onze A.I. interacties. Maar het betekent niet het eisen van perfecte eerlijkheid - serieus, niemand wil dat.

$config[ads_kvadrat] not found