U2 Muziekvideo's worden nu gebruikt in Artificial Intelligence Study

U2 - Where The Streets Have No Name

U2 - Where The Streets Have No Name
Anonim

Kunstmatige intelligentie kan op een dag de muziekvideo's scannen die we bekijken om op basis van de emoties van de artiest te komen met voorspellende muziekontdekkingsopties. Dat betekent dat A.I. kan het droevige gezicht van Bono snel herkennen en je muf Bono van dienst zijn, of misschien iets meer smiley.

De technologie om dit te doen is er nog niet, maar Diane Rasmussen Pennington, een docent aan de Universiteit van Strathclyde in Glasgow, Schotland, deed onderzoek naar 150 video's gemaakt door U2-fans en opgenomen niet-tekstgebaseerde emotionele aanwijzingen om te laten zien welke gezichtskenmerken en objecten kunnen het handigst zijn voor toekomstige softwareprogramma's.

"Volledige openbaarmaking, U2 is al heel lang mijn favoriete band," vertelt Pennington omgekeerde, eraan toevoegend dat er een aantal andere redenen waren om de video's van de band als testterrein te gebruiken. "Objectief gezien heb ik van lezen en niet alleen van mijn waarneming als een fan, in het algemeen vinden de mensen die van de muziek van U2 houden, een zeer emotionele ervaring wanneer ze ernaar luisteren, misschien meer dan andere bands. … Er is iets dat bijna heel spiritueel is voor fans van de band."

Pennington koos ervoor om zich te concentreren op slechts één U2-tune, "Song For Someone" van de controversiële 2014-record van de band Liederen van onschuld, die in een heleboel iTunes van mensen zit of het nu wel of niet gewenst is. De video's bevatten diavoorstellingen van fans ondersteund door de muziek van de band, tutorials over het uitvoeren van het nummer en natuurlijk covers. Ze categoriseerde de gezichtsuitdrukkingen van de artiesten, evenals ventilatiememorabilia, waaronder t-shirts, concertaffiches en op Bono geïnspireerde zonnebrillen.

Pennington zegt het A.I. software wordt steeds beter in het identificeren van verschillende texturen en cirkelvormige objecten in foto's en video's, maar hoopt dat haar onderzoek een kleine opstap kan zijn naar het identificeren van de emotionele betekenis achter die objecten.

Facebook heeft aangegeven dat het A.I. wil maken. dat is "meer scherpzinnig dan mensen" om inhoud en advertenties beter te kunnen weergeven op basis van visuele aanwijzingen van video's en foto's die op het platform worden gedeeld. Twitter is al bezig met het testen van de vergelijkbare Cortex-technologie, die erop gericht is om op een slimme manier objecten in live Periscope-feeds te identificeren om live video-streaming-evenementen aan te bevelen.

Dezelfde concepten zouden zeker van toepassing kunnen zijn op de continue muziekstreamingoorlogen. Onder de belangrijkste platforms voor muziekstreaming is het een race om de beste voorspellende detectiesoftware te ontwikkelen. Apple Music gebruikt menselijke curators om afspeellijsten te maken ter compensatie van het gebrek aan consistentie dat wordt aangetroffen in algoritmische programma's die worden gebruikt door zijn concurrenten Spotify en Google.

Uiteindelijk voorspellen technologen, zoals de bestuursvoorzitter van Alphabet en de oprichter van Google, Eric Schmidt, dat consumenten van de toekomst afhankelijk zijn van computersoftware om hen te helpen bij het ontdekken van muziek.

Spotify en Apple Music hebben de neiging om gedurfde uitspraken te doen over hun aantal maandelijkse abonnees, maar voor nu is de koning YouTube, met meer dan een miljard maandelijkse gebruikers, die het landschap van muziekstreaming domineert.

Met YouTube Red en de YouTube Music-app kunnen nieuwe en verschillende opties voor muziekdetectie goed worden weergegeven, maar het wordt naar beneden getrokken door het onvermogen om daadwerkelijk te identificeren wat er op het scherm wordt afgespeeld. Natuurlijk weet Google welke video's je duimen hebt gegeven, 50 keer gekeken hebt over herhalen, gedeeld op sociale media en becommentarieerd, maar het heeft geen visuele aanwijzingen om te vertellen waarom.

Doelgroepen kunnen ook zoekresultaten genereren op basis van het emotionele gevoel achter liedjes en hun artiesten. Bijvoorbeeld, een zoekopdracht van vandaag naar "Bad Day" kan de single van Daniel Powter naar voren brengen, maar in de toekomst kunnen gebruikers die videoclip ontvangen naast meer op maat gemaakte artiesten die simpelweg de emotie oproepen van een slechte dag hebben en niet specifiek dat nummer. Het is ook vermeldenswaard dat de zoekresultaten van YouTube momenteel grotendeels gebaseerd zijn op weergaven, terwijl likes, shares en reacties directer van invloed zijn op de voorgestelde artiesten op de desktopsite of de afspeellijstselectie in de YouTube Music-app.

Pennington's onderzoek zou een stap kunnen zijn in de richting van niet alleen het identificeren van wat er op onze schermen staat, maar ook waarom bands zoals U2 zo'n emotionele reactie oproepen.