The Future of Natural Language Processing
Met de komst van Amazon's Alexa en Siri's consistente capaciteit om meer klusjes te klaren (en steeds brutaler te worden), vragen velen zich af: wat biedt de toekomst voor natuurlijke taalbegrip en spraakconversaties?
Er zijn verschillende bedrijven hals-en-nek in deze race. Er is Wit.ai, het bedrijf dat Facebook heeft overgenomen - je kunt rondtoeren met een demo. (Probeer deze opdracht: "Ik wil katten kijken.") Apple heeft zijn HomeKit en doet daarmee wat Apple het beste doet - schoppen in de kont. Amazon is ook vooraan met zijn Alexa uitgeruste Echo en Echo Dot.
Een bedrijf dat op het spoor staat van het begrijpen van natuurlijke talen, is MindMeld. MindMeld biedt haar natuurlijke taalbegripmogelijkheden aan andere bedrijven die intelligente steminterfaces willen toevoegen aan hun producten, diensten of apparaten. Het in San Francisco gevestigde bedrijf biedt partners de infrastructuur en aanpassingsmogelijkheden zodat hun apparaten hun eigen, afgestemde persoonlijke assistenten kunnen hebben. MindMeld heeft onlangs een samenwerking met Spotify aangekondigd, maar werkt ook samen met autobedrijven, defensiebureaus, e-commercebedrijven en meer. (En natuurlijk is het niet in staat om veel details van dergelijke partnerschappen te delen.)
omgekeerde sprak met Sam Vasisht van MindMeld over de status van het spraakherkenningsveld, maar hij wees er snel op dat 'spraakherkenning', als een onderneming, nu een 'alledaags onderwerp' is. Tegenwoordig draait alles om 'begrip van natuurlijke talen'. "Spraakherkenning heeft bijna zijn hoogtepunt bereikt: na 50-tal jaren van ontwikkeling kunnen KI's nu spraak effectief herkennen. Deze systemen zijn bijna beter dan mensen op het werk, en zullen ongetwijfeld stervelingen snel overtreffen.
De voorspelbare volgende stap is dan - net als de ontwikkeling van een kind - om deze systemen te leren begrijpen de taal die ze nu kunnen herkennen. "Deze mens spreekt woorden; dit zijn de woorden "staat ver af van", ik begrijp wat deze mens zegt; sta me toe om te helpen."
En die verdere stap en ontwikkeling vereist interpretatie van betekenis: Het imiteren van de manier waarop de menselijke geest verbale informatie verwerkt. Deze vergelijking bestaat uit twee delen. De eerste is de bedoeling: wat is het doel of de wens van de mens om deze zin te spreken? Een computer die een intentie uit een gesproken zin kan halen, kan 'begrijpen' dat de mens invloed wil hebben X of interactie hebben met Y. Verweven met dit proces is het tweede deel van de vergelijking: Entiteit. De A.I. moet weten hoe de entiteit die wordt geadresseerd te bepalen, het object van de intentie van de mens.
Om dit te doen, is MindMeld niet (zoals ik veronderstelde of hoopte) in dienst van filosofen. Het maakt gebruik van natuurlijke taalexperts, maar veel van de A.I. "Leerproces" is zelf relatief hands-off. Als u het systeem leert om koffiebestellingen te begrijpen, moet u het systeem alle verschillende manieren tonen waarop mensen waarschijnlijk koffie bestellen.
"Ik zou graag een mokka willen hebben."
"Mag ik alsjeblieft een kopje Joe?"
"Gewoon een grote koffie voor mij."
En dat is waar de natuurlijke taalexperts - linguïsten - binnenkomen. Maar zelfs dat is niet langer nodig omdat we de gegevens kunnen crowdsourcen. Met deze hulpmiddelen kunt u duizenden mensen dezelfde vraag stellen en hun antwoorden compileren. Dan voer je die antwoorden gewoon in de A.I., en voila: de A.I. kan reageren op het brede scala van mogelijke vragen. "Uit de duizenden zoekopdrachten kunnen we nu eigenlijk gewoon leren hoe miljarden andere zoekopdrachten kunnen worden gegenereerd", zegt Vasisht.
omgekeerde vroeg Vasisht, die al lang een insider is in het A.I. en natuurlijk taalbegrip rijk, om voor ons te speculeren.
Kan MindMeld deelnemen aan een uitgebreide dialoog? Als ik bijvoorbeeld een vervolgvraag stel, zal de A.I. begrijpen en blijven reageren?
Ja. Dat hoort bij het ontwerp. Als iemand een vraag stelt die onvolledig is, bijvoorbeeld als ik koffie bestel, en ik geef niet de grootte aan van de koffie die ik wil, dan komt hij terug en zegt hij: "Wat voor koffie drink jij? willen?"
Verwacht u enige vooruitgang op de Turing-test?
Ik denk dat we er vrij goed in zijn. Ik bedoel, IBM Watson deed het Gevaar! en ik denk dat dat een heel goed voorbeeld was. We zijn op dat moment: het komt heel dichtbij. Net zoals nu, in termen van spraakherkenning, we op het punt komen dat machines net zo goed zijn als mensen, denk ik dat we - zeker in de komende drie tot vijf jaar - op een punt zullen zijn waar de meeste van deze conversatiestem systemen worden beschouwd als net zo goed als mensen.
Wat voor soort domotica dingen doet MindMeld?
We kunnen onze technologie toepassen op elk soort product, elke vorm van service, elk soort datadomein. Domotica is daar een van. Binnenin heb je lichtregeling, thermostaat, beveiligingssystemen, audiosystemen, videosystemen, al die dingen. We kunnen elk van de systemen bedienen, mits er de juiste interface is.
Wat zou je willen dat je binnen je eigen huis bij MindMeld zou kunnen aansluiten?
Ik denk dat geavanceerdere use-cases - zoals praten met mijn Spotify om te zeggen "speel me de Rolling Stones afspeellijst" of "speel me klassieke muziek vanavond - dat soort dingen zou … geweldig zijn.
Is er iets meer onverwachts of out-of-the-box dat u met uw stem wilt regelen?
De dingen die ik je beschreef, zijn de dingen waarvan ik denk dat ze aanstaande zijn. Met andere woorden, deze zullen zeer snel gebeuren. Wat niet meteen zal gebeuren, denk ik, zou dingen zijn zoals magnetrons, koffiezetapparaten en koelkasten. Dit soort apparaten kunnen worden aangestuurd - dus ik kan eigenlijk zeggen: "Is mijn koffiemachine klaar voor het maken van koffie? Zet het koffiezetapparaat aan "en als het niet klaargemaakt is, zou het terug moeten komen en zeggen:" Het spijt me, maar uw koffiemachine is niet klaar "- dat soort intelligentie bestaat nog niet. Dat zal de heilige graal zijn: waar in principe elk apparaat tegen je kan praten en je kan vertellen wat het wel en niet kan doen. Maar we zijn er nog niet helemaal.
Wat denk je dat de industrie terughoudt?
Dit zijn nu extreem goedkope apparaten. Ik bedoel, dit zijn apparaten die je voor bijna niets kunt kopen. Tien jaar geleden kostten ze veel meer.Het inbouwen van nieuwe functies is dus iets dat de kosten van deze apparaten verhoogt. Uiteindelijk is de huidige waardepropositie erg sterk; de meeste van deze fabrikanten zijn niet geneigd nieuwe functies toe te voegen, tenzij ze op een zeer laag kostenpunt zijn.
Ik denk dat dat een aspect ervan is. Het andere aspect is, we hebben het over het hebben van deze apparaten aangesloten. Er moet dus meer zijn dan alleen een voice-use-case om deze apparaten met elkaar te verbinden. Er moeten meer mogelijkheden zijn om op die verbinding te kunnen rijden voordat ze levensvatbaar worden.
Kent u een bedrijf dat aan die laatste capaciteit werkt?
Veel halfgeleiderbedrijven werken aan zeer goedkope microfoonarrays. Het soort dingen dat je in principe kunt insluiten - tegen zeer lage kosten, op vrijwel elk apparaat of applicatie - die een steminvoer mogelijk zou maken. En je hoeft niet naast deze apparaten te staan - je kunt vanaf tien meter afstand praten. Bouwen aan die mogelijkheid - ik denk dat dat het uitgangspunt is. En ik denk dat mensen hierdoor kunnen beginnen met het plaatsen van microfoons op apparaten, en dan zullen de andere geavanceerde functies volgen. Maar vanaf nu ken ik geen enkel bedrijf dat een dergelijke slimme koffiemachine, slimme magnetron of wasmachine bouwt.
Wat is je beste schatting voor wanneer we volledig slimme huizen hebben, volledig slimme appartementen?
Tegenwoordig hebben we eigenlijk bijna alle essentiële subsystemen in huis die mensen willen automatiseren, die kunnen worden geautomatiseerd. Dit omvat verlichting, thermostaten, beveiligingssystemen, garagedeuren, deursloten - dat soort dingen. Al deze dingen kunnen worden gedaan. Het probleem zit echt rond prijspunten. Dit zijn nog steeds de prijzen waar het vooral early adopters zijn en mensen die er een heel hoge behoefte aan hebben. Maar de prijzen van deze dingen dalen dramatisch, heel snel. Ik denk dat we deze subsystemen waarschijnlijk de komende jaren naar de massamarkt zullen brengen.
De andere dingen waar ik het over had - het automatiseren van de zeer goedkope apparaten - ik denk dat die op zijn vroegst in het tijdvak van vijf tot zeven jaar zitten. Meer 10 jaar uit, voordat die werkelijkheid worden. Maar zoals ik al eerder zei, dat zijn dingen die een aantal andere dingen vereisen om samen te komen. En het kan eerder gebeuren als die verschillende ingrediënten eerder in elkaar grijpen.
Hoe denk je dat een appartement in New York of San Francisco eruit zou zien in bijvoorbeeld 2050?
2050! Wauw. Ik denk dat we er volledig zullen zijn. Het soort dingen dat we zien in science-fiction films - waar je vrijwel elk systeem in je huis kunt gebruiken en alles met stem kunt besturen - ik denk dat dat soort mogelijkheden wijdverspreid zal zijn. Zeker in steden als New York en San Francisco.
Origin of Human Language Began With Cave Art, Scientists Theorize
Terwijl 2018 eindigt, belicht Inverse 25 verrassende dingen die we dit jaar over mensen hebben geleerd. Dit verhaal is # 24. Inverse meldde in februari dat onderzoekers geloven dat de cognitieve processen die nodig zijn voor menselijke taal werden aangestoken door doelgericht gecreëerde, akoestisch verbonden grotkunst.
Body Language Expert op Nancy Pelosi op SOTU: "This Is No Ordinary Clap"
In de State of the Union, toespraak op dinsdagavond, sprak huisbaas Nancy Pelosi letterlijk terug naar president Donald Trump en creëerde zo een virale sensatie. Beelden van Pelosi-klappen als antwoord op de oproep van Trump voor het einde van 'wraakpolitiek' was, zoals een lichaamstaalexpert Inverse zegt, allesbehalve oprecht.
Microsoft Research ontwikkelt een beter-dan-menselijke spraakherkenning
De software in het rapport, getiteld 'Het bereiken van menselijke pariteit in spraakherkenning voor spraakherkenning', scoorde beter dan mensen op de NIST 2000-test.