U2 - Where The Streets Have No Name
Kunstmatige intelligentie kan op een dag de muziekvideo's scannen die we bekijken om op basis van de emoties van de artiest te komen met voorspellende muziekontdekkingsopties. Dat betekent dat A.I. kan het droevige gezicht van Bono snel herkennen en je muf Bono van dienst zijn, of misschien iets meer smiley.
De technologie om dit te doen is er nog niet, maar Diane Rasmussen Pennington, een docent aan de Universiteit van Strathclyde in Glasgow, Schotland, deed onderzoek naar 150 video's gemaakt door U2-fans en opgenomen niet-tekstgebaseerde emotionele aanwijzingen om te laten zien welke gezichtskenmerken en objecten kunnen het handigst zijn voor toekomstige softwareprogramma's.
"Volledige openbaarmaking, U2 is al heel lang mijn favoriete band," vertelt Pennington omgekeerde, eraan toevoegend dat er een aantal andere redenen waren om de video's van de band als testterrein te gebruiken. "Objectief gezien heb ik van lezen en niet alleen van mijn waarneming als een fan, in het algemeen vinden de mensen die van de muziek van U2 houden, een zeer emotionele ervaring wanneer ze ernaar luisteren, misschien meer dan andere bands. … Er is iets dat bijna heel spiritueel is voor fans van de band."
Pennington koos ervoor om zich te concentreren op slechts één U2-tune, "Song For Someone" van de controversiële 2014-record van de band Liederen van onschuld, die in een heleboel iTunes van mensen zit of het nu wel of niet gewenst is. De video's bevatten diavoorstellingen van fans ondersteund door de muziek van de band, tutorials over het uitvoeren van het nummer en natuurlijk covers. Ze categoriseerde de gezichtsuitdrukkingen van de artiesten, evenals ventilatiememorabilia, waaronder t-shirts, concertaffiches en op Bono geïnspireerde zonnebrillen.
Pennington zegt het A.I. software wordt steeds beter in het identificeren van verschillende texturen en cirkelvormige objecten in foto's en video's, maar hoopt dat haar onderzoek een kleine opstap kan zijn naar het identificeren van de emotionele betekenis achter die objecten.
Facebook heeft aangegeven dat het A.I. wil maken. dat is "meer scherpzinnig dan mensen" om inhoud en advertenties beter te kunnen weergeven op basis van visuele aanwijzingen van video's en foto's die op het platform worden gedeeld. Twitter is al bezig met het testen van de vergelijkbare Cortex-technologie, die erop gericht is om op een slimme manier objecten in live Periscope-feeds te identificeren om live video-streaming-evenementen aan te bevelen.
Dezelfde concepten zouden zeker van toepassing kunnen zijn op de continue muziekstreamingoorlogen. Onder de belangrijkste platforms voor muziekstreaming is het een race om de beste voorspellende detectiesoftware te ontwikkelen. Apple Music gebruikt menselijke curators om afspeellijsten te maken ter compensatie van het gebrek aan consistentie dat wordt aangetroffen in algoritmische programma's die worden gebruikt door zijn concurrenten Spotify en Google.
Uiteindelijk voorspellen technologen, zoals de bestuursvoorzitter van Alphabet en de oprichter van Google, Eric Schmidt, dat consumenten van de toekomst afhankelijk zijn van computersoftware om hen te helpen bij het ontdekken van muziek.
Spotify en Apple Music hebben de neiging om gedurfde uitspraken te doen over hun aantal maandelijkse abonnees, maar voor nu is de koning YouTube, met meer dan een miljard maandelijkse gebruikers, die het landschap van muziekstreaming domineert.
Met YouTube Red en de YouTube Music-app kunnen nieuwe en verschillende opties voor muziekdetectie goed worden weergegeven, maar het wordt naar beneden getrokken door het onvermogen om daadwerkelijk te identificeren wat er op het scherm wordt afgespeeld. Natuurlijk weet Google welke video's je duimen hebt gegeven, 50 keer gekeken hebt over herhalen, gedeeld op sociale media en becommentarieerd, maar het heeft geen visuele aanwijzingen om te vertellen waarom.
Doelgroepen kunnen ook zoekresultaten genereren op basis van het emotionele gevoel achter liedjes en hun artiesten. Bijvoorbeeld, een zoekopdracht van vandaag naar "Bad Day" kan de single van Daniel Powter naar voren brengen, maar in de toekomst kunnen gebruikers die videoclip ontvangen naast meer op maat gemaakte artiesten die simpelweg de emotie oproepen van een slechte dag hebben en niet specifiek dat nummer. Het is ook vermeldenswaard dat de zoekresultaten van YouTube momenteel grotendeels gebaseerd zijn op weergaven, terwijl likes, shares en reacties directer van invloed zijn op de voorgestelde artiesten op de desktopsite of de afspeellijstselectie in de YouTube Music-app.
Pennington's onderzoek zou een stap kunnen zijn in de richting van niet alleen het identificeren van wat er op onze schermen staat, maar ook waarom bands zoals U2 zo'n emotionele reactie oproepen.
Data Science en Artificial Intelligence blijven synoniem op CES
Wanneer de meeste mensen over kunstmatige intelligentie horen, denken ze aan protocol droids, Jarvis of SkyNet. Maar in werkelijkheid is A.I. is slechts een hulpmiddel - en dat doen we al. A.I. is een kwestie van begrijpen wat die tool doet en, op dit moment, lijkt die tool de traditionele industrie te vernietigen ...
Apple sloft omhoog Tiny, Innovative Artificial Intelligence Firm Emotient
Facebook weet wie er op uw foto's staat en Google kan zelfs vaststellen of u uw vriendin in uw armen houdt, of een kat. Maar Apple is nieuwsgierig achter de feiten gebleven wat betreft kunstmatige intelligentie. Natuurlijk heeft Apple een paar jaar geleden Siri uitgerold, maar zelfs na een paar generaties is ze nog steeds n ...
Harvard gebruikt een National Intelligence Grant voor "Moonshot" A.I. Onderzoek
Als kunstmatige intelligentie de wereld echt zal transformeren zoals veel experts denken dat het zal zijn, dan is het een goede gok om nu te gaan investeren. Het is dus geen verrassing om te horen dat de universiteit van Harvard een subsidie van $ 28 miljoen heeft aangevraagd voor een vijfjarige A.I. studie. De verrassing is echter waar het geld ...