Gaat deze robot straks voor je opa of oma zorgen?
Wanneer 'slechte' gegevens in een systeem voor leersystemen worden gezogen - zo noemde Alan Greenspan het toen hij discussieerde over de computermodellen die de recessie van 2008 niet voorspelden - kan die informatie moeilijk te verwijderen zijn. Maar een nieuw concept, voorgesteld door computerwetenschappers Junfeng Yang en Yinzhi Cao, van respectievelijk Columbia University en Lehigh University, brengt het idee van unlearning naar computers. Zoals Cao en Yang in het abstract schrijven voor de 2015 IEEE Xplore-conferentie, hoef je niet helemaal terug te gaan naar het begin om te vergeten:
Om een voorbeeld van trainingsgegevens te vergeten, werkt onze benadering eenvoudigweg een klein aantal optellingen bij - asymptotisch sneller dan helemaal opnieuw trainen. Onze aanpak is algemeen, omdat het sommatieformulier afkomstig is van de statistische query-learning waarin veel algoritmes voor het leren van computers kunnen worden geïmplementeerd. Onze aanpak is ook van toepassing op alle stadia van machine learning, inclusief functieselectie en modellering. Onze evaluatie, op vier verschillende leersystemen en realistische workloads, toont aan dat onze aanpak algemeen, effectief, snel en gebruiksvriendelijk is.
Het concept van machinaal leren berust op een fundering die is opgebouwd uit heuvels en bergen informatie. Dat kan handig zijn om robots of kunstmatige intelligenties te onderwijzen om bepaalde verbindingen te maken - bijvoorbeeld als een persoon in een zware jas een bijl hanteert, kan hij of zij een brandweerman zijn. Maar in deze trainingssessies kunnen er foutieve verbindingen ontstaan, gebaseerd op de dataset. Je robot denkt misschien dat alle brandweermannen baarden hebben. Dit is natuurlijk iets dat u van een computer zou willen ontdenken.
Cao en Yang baseren dit idee van robot-informatieve ontkoppeling op het concept van data-lineage - die data springt niet volledig in de wereld, maar heeft een traceerbare geschiedenis terwijl de ruwe data worden verwerkt, notities Kurzweil A.I. Door die lijn te exploiteren, kunnen machines bepaalde delen van gegevens afleren, zonder hun opleiding volledig af te vegen.
Sluit Gap winkels wegens slechte stijl of slechte zaken?
Gap, de massadetailhandelaar die de jaren negentig heeft uitgevonden (voordat Abercrombie hen vervolmaakte), sluit 175 winkels te midden van verliezen en algemeen gebrek aan relevantie. De verhuizing is een belangrijk moment voor de reguliere Amerikaanse retail, waarvan Gap Inc., die ook Old Navy, Banana Republic en Piperlime bezit (we weten het ook niet), grotendeels ...
Hoe een meisje te vergeten: 15 manieren om te vergeten dat ze zelfs bestaat
Wat je reden ook is om te willen vergeten, het kan lastig zijn om te doen. Hier zijn enkele tips om een meisje te vergeten.
10 Vroege tekenen van een bezitterige man die je nooit zou willen vergeten
Relaties vereisen partnerschap, geen eigendom. Dus als je deze vroege tekenen van een bezitterige man opmerkt, is het beter om weg te gaan voordat het slecht wordt.