A.I .: Onderzoekers laten zien hoe machines door gesprekken heen kunnen faken

$config[ads_kvadrat] not found

Fake videos of real people -- and how to spot them | Supasorn Suwajanakorn

Fake videos of real people -- and how to spot them | Supasorn Suwajanakorn
Anonim

Als er niets anders is, kun je zoveel voor kunstmatige intelligentie: ze zijn zelden bang om dom te lijken. Als een A.I. iets tegenkomt dat buiten de voorgeprogrammeerde kennis valt, zal het doorgaans niet verlegen zijn om de persoon met wie het spreekt om opheldering te vragen.

Dit kan echter een vrij eentonig gesprek opleveren voor de mens die betrokken is bij het praten met de chatbot, stemassistent of algemeen bekende robot: "Wat is een appel?" "Wat is tiramisu?" "Wat heeft vlees genezen?" "Wat weet u letterlijk iets over eten, je stomme recept chatbot?"

Je snapt het idee, en zoals onderzoekers van de Japanse universiteit van Osaka in een recente spotlight op hun werk wijzen, is die laatste regel een indicatie van het echte probleem waarmee AI wordt geconfronteerd: vragen stellen is misschien de beste manier om te leren, maar dat is niet de bedoeling t telt voor veel als het spervuur ​​van vragen zo irriterend of vervelend is dat de mens verdwaalt. Het is niet genoeg voor de A.I. om te weten wat het niet weet. Het moet ook weten hoe we mensen geëngageerd kunnen houden om de lacunes in haar kennis op te vullen.

Hun nieuw bedachte methode maakt gebruik van wat bekend staat als lexicale acquisitie door impliciete bevestiging, wat eigenlijk een mooie manier is om te zeggen dat kunstmatige intelligentie zich nu net zo goed door de gesprekken kan gapen als mensen dat kunnen. Het trekt deze truc uit door mensen te vragen te bevestigen wat iets is, maar door iets anders te zeggen dat indirect de gesprekspartner ertoe aanzet om te bevestigen of te ontkennen dat het instinkt van A.I. correct is.

Laten we een voorbeeld bekijken.

De A.I. weet genoeg om een ​​gissing te doen over de oorsprong van de uitdrukking "nasi goreng," te oordelen dat het Indonesisch klinkt. Het feit dat de mens zei dat ze zullen proberen koken dit gerecht suggereert dat het een soort voedsel is, en dus de A.I. genereert die verklaring - geen vraag, hoewel er een is verborgen in het - over de kwaliteit van de Indonesische restaurants in de omgeving.

De A.I. zou vermoedelijk basisgegevens kunnen gebruiken over recente restaurantopeningen en hun online reviews om erachter te komen of die verklaring feitelijk steek houdt, misschien iets anders zeggend als "Er moeten hier echt meer goede Indonesische restaurants zijn" als het niet veel opties zou vinden.

Maar dat is alleen maar om verwarring te verminderen, aangezien zelfs de mens die het oneens is met de verklaring nog steeds de onderliggende vraag zou beantwoorden of nasi goreng Indonesisch is. Het is alleen als de persoon vraagt ​​wat de A.I. heeft het erover dat het duidelijk is dat de machine een fout heeft gemaakt.

Dus als je zou denken dat faken je een weg door gesprekken op feestjes was iets wat alleen mensen ooit zouden kunnen doen … sorry, automatisering komt echt voor ons allemaal.

$config[ads_kvadrat] not found