Hoe de meerarmige bandiet bepaalt welke advertenties en verhalen u online ziet

$config[ads_kvadrat] not found

Adverteren op social media: hoe pak je dat aan?

Adverteren op social media: hoe pak je dat aan?
Anonim

Stel je voor dat je een gokker bent en dat je voor verschillende gokautomaten staat. Het is uw doel om uw winst te maximaliseren, maar u weet eigenlijk niets van de potentiële voordelen die elke machine biedt. U begrijpt echter wel dat de hendels die u trekt en de frequentie waarmee u dit doet van invloed zijn op de resultaten van uw gokbui.

Dit scenario, elke dag geconfronteerd door bezoekers van Las Vegas en Atlantic City (in welke mate mensen nog steeds naar Atlantic City gaan) is ook een klassieke logica-puzzel genaamd "Multi-Armed Bandit" - fruitmachines worden "One-Armed" genoemd Bandieten "door oudere Reno-types omdat ze één hendel hebben en het geld van mensen pakken. Hoewel er geen juiste manier is om Multi-Armed Bandit-situaties aan te pakken - de dichtstbijzijnde kandidaat is Gittins Index - zijn er strategische benaderingen om deze problemen aan te pakken die je ziet zonder elke dag te registreren wanneer je online gaat. Veel algoritmen voor de manier waarop inhoud wordt weergegeven via Google en op websites zijn gebaseerd op MAB-strategieën. Het doel in bijna alle gevallen is om leren en resultaten te verbinden en het potentieel voor beide te maximaliseren.

Een multi-armed bandiet benadering wordt gebruikt door The Washington Post om erachter te komen welke foto's en koppen u het meest waarschijnlijk zult klikken, en door draadloze netwerken om erachter te komen welke optimale, energiebesparende routes de beste zijn. De algoritmen die voortkomen uit MBA-benaderingen zijn enorm belangrijk voor deze bedrijven en vele anderen omdat ze in principe bepalen wanneer en welke advertenties online verschijnen.

Uitzoeken welke advertenties mensen moeten laten zien is een uitdagend probleem, omdat er zo veel eenarmige bandieten rondlopen om online op dingen te klikken. MAB-algoritmen voor advertenties maken meestal gebruik van een snel veranderend 'dodelijk multi-gewapende bandietprobleem', dat wordt toegepast gedurende beperkte tijdsperioden. Verkeersgegevens worden gebruikt om steeds effectievere methoden te ontwikkelen.

Het is moeilijk om MAB's exact te koppelen, omdat het mogelijk is om zoveel variaties op de formule te maken. K-gewapende bandieten hebben bijvoorbeeld "armen" die strijden om de hoogst verwachte beloning. Contextualiseren bandieten doen hetzelfde, maar met "deskundig advies" - gegevens eerder verzameld over de gebruiker - en het web-ready met de naam "ILOVETOCONBANDITS" werkt alleen op een schema van vooraf gespecificeerde rondes. Daarentegen heeft een klassieke MAB-benadering geen neveninformatie mogelijk en is het resultaat alleen afhankelijk van het potentieel van de gekozen actie.

Hoewel de meest bruikbare applicatie voor MAB's tot nu toe lijkt te zijn gerelateerd aan internet, proberen onderzoekers een manier te vinden om ze toe te passen in scenario's van 'real life' (aka meatspace). In een paper van 2015 overwegen onderzoekers van de University of British Columbia de toepassing van MAB's voor medische onderzoeken. Het doel, als MAB's hier mogelijk blijken te zijn, is dat een MAB-algoritme het effect van een bepaald medicijn kan meten. Het voor de hand liggende probleem is dat, tenzij er een computergemoduleerde versie van zou kunnen worden gemaakt, het volgen van deze aanpak gewoon te tijdrovend zou zijn. Er is geen enkele manier om een ​​MAB-ontwerp in een klinisch onderzoek te plaatsen.

Het idee is leuk, maar niet haalbaar vanaf nu. Tot de toekomst is aangebroken, voel je vooral de dreigende aanwezigheid van een meerarmige bandiet wanneer je wanhopig probeert te klikken uit pop-upadvertenties.

$config[ads_kvadrat] not found