How to Play Magic: The Gathering
Neurale netwerken zijn cruciaal voor de toekomst van A.I. en, volgens Elon Musk, de toekomst van de hele mensheid. Gelukkig heeft Google's DeepMind net de code gekraakt om neurale netwerken een stuk slimmer te maken door ze intern geheugen te geven.
In een studie uitgebracht in Natuur op 12 oktober liet DeepMind zien hoe neurale netwerken en geheugensystemen kunnen worden gecombineerd om machine learning te maken die niet alleen kennis opslaat, maar deze ook snel gebruikt om te redeneren op basis van omstandigheden. Een van de grootste uitdagingen met A.I. zorgt ervoor dat het dingen onthoudt. Het lijkt erop dat we een stap dichterbij zijn om dat te bereiken.
Genoemd differentiable neurale computers (DNC's), de verbeterde neurale netwerken functioneren net als een computer.Een computer heeft een processor om taken te voltooien (een neuraal netwerk), maar er is een geheugensysteem voor nodig om de processor algoritmen uit verschillende gegevenspunten (de DNC) te laten uitvoeren.
Vóór de innovatie van DeepMind moesten neurale netwerken vertrouwen op extern geheugen om de neuronactiviteit van het netwerk niet te verstoren.
Zonder extern geheugen kunnen neurale netwerken alleen een oplossing bedenken op basis van bekende informatie. Ze hebben enorme hoeveelheden gegevens nodig en oefenen om nauwkeuriger te worden. Als een mens die een nieuwe taal leert, kost het eigenlijk tijd voordat neurale netwerken slim worden. Het is dezelfde reden dat het neurale netwerk van DeepMind geweldig is bij Go maar vreselijk bij het strategie-gebaseerde spel Magic: Neurale netwerken kunnen gewoon niet genoeg variabelen verwerken zonder geheugen.
Geheugen stelt neurale netwerken in staat om variabelen te integreren en snel gegevens te analyseren, zodat het iets complexs kan plotten als de Londense metro en conclusies kan trekken op basis van specifieke gegevenspunten. In de studie van DeepMind ontdekten ze dat een DNC op zichzelf zou kunnen leren vragen te beantwoorden over de snelste routes tussen bestemmingen en op welke bestemming een reis zou eindigen, gewoon door de nieuw gepresenteerde grafiek en kennis van andere vervoerssystemen te gebruiken. Het kan ook relaties van een stamboom afleiden zonder informatie die wordt gepresenteerd behalve de boom. De DNC was in staat om een doel voor een bepaalde taak te voltooien zonder de extra gegevenspunten te krijgen die een traditioneel neuraal netwerk nodig zou hebben.
Hoewel dat misschien niet erg indrukwekkend lijkt (Google Maps is al behoorlijk goed in het berekenen van de meest efficiënte route ergens), is de technologie een enorme stap voor de toekomst van A.I. Als u denkt dat voorspellend zoeken efficiënt (of griezelig) is, stel u dan voor hoe goed het zou kunnen zijn met het neurale netwerkgeheugen. Wanneer je op Facebook zoekt naar de naam Ben, weet het door het feit dat je gewoon op de pagina van een gemeenschappelijke vriend bent en naar een foto van hem kijkt, dat je Ben vanaf de straat bedoelt, niet Ben van de basisschool.
Leren van natuurlijke talen A.I. zou eindelijk voldoende context hebben om te werken op zowel de taal van de Wall Street Journal en Black Twitter kunnen begrijpen. Siri kon begrijpen dat Pepe the Frog meer is dan alleen een personage uit een stripverhaal, want ze heeft het allemaal gelezen omgekeerde artikel erover.
"Ik ben het meest onder de indruk van het vermogen van het netwerk om 'algoritmen' te leren van voorbeelden," vertelde Brenden Lake, een cognitief wetenschapper aan de New York University, Technology Review. "Algoritmen, zoals sorteren of het vinden van de kortste paden, zijn het brood en boter van de klassieke informatica. Ze vereisen traditioneel een programmeur om te ontwerpen en implementeren."
A.I. de vaardigheid om context te begrijpen maakt het mogelijk om de noodzaak voor geprogrammeerde algoritmen over te slaan.
Hoewel DeepMinds DNC niet het eerste experiment in neuraal geheugen is, is het de meest geavanceerde. Dat gezegd hebbende, bevindt het neurale netwerk zich nog in de beginfase en het heeft nog een lange weg te gaan voordat het op menselijk niveau van leren staat. Onderzoekers moeten nog steeds bedenken hoe ze de systeemverwerking moeten opschalen, zodat ze snel elk stukje geheugen kunnen scannen en berekenen.
Op dit moment kunnen mensen op neurologisch gebied opperen.
Columbus, Ohio staat op het punt om een slimme stad te worden, maar het zal nog steeds niet gemakkelijk zijn
Hoewel hun proces nog steeds is gehuld in mysterie, is ambitieuze startup Sidewalk Labs naar verluidt van plan een revolutie teweeg te brengen in de manier waarop we navigeren en de middelen van het stadsleven gebruiken. Uit nieuwe documenten blijkt dat het bedrijf - bekendst voor het blijven onverbiddelijk mamma op bijna alles zij werken ...
Damien Darhk is nog steeds het leukste deel van 'Arrow', een steeds dommer wordende show
Neal McDonough kauwt elke scène die hij is geweest in dit seizoen. 'Lost in the Flood', de voorlaatste aflevering vóór de finale van Arrow Season 4, werd gered vanwege McDonough's hype-achtige uitvoering als Damien Darhk. Anders is Arrow gedoemd tot een vloedgolf van verveling en domheid. Na het verlies van tienduizend ...
'Westworld' Seizoen 3: Aaron Paul voegt zich bij de Cast, maar nog steeds geen releasedatum
'Westworld' Seizoen 3 heeft nog steeds geen releasedatum, hoewel het waarschijnlijk niet zal plaatsvinden tot tenminste 2020. In de tussentijd zullen fans van de sci-fi series van HBO gelukkig zijn te weten dat een andere beroemde acteur naar verluidt toetreden tot de cast: Aaron Paul.