Com es determinen els anuncis i les històries que veus en línia sobre el bandit multi-armat

$config[ads_kvadrat] not found

Как выбрать цифровое агентство маркетинга для вашего бизнеса?

Как выбрать цифровое агентство маркетинга для вашего бизнеса?
Anonim

Imagineu-vos que sou un jugador i esteu enfront de diverses màquines escurabutxaques. El vostre objectiu és maximitzar els vostres guanys, però en realitat no sabeu res sobre les recompenses potencials que ofereix cada màquina. No obstant això, entengueu que les palanques que treieu i la freqüència amb què ho feu afectaran els resultats del vostre desordre de joc.

Aquest escenari, afrontat dia a dia pels visitants de Las Vegas i Atlantic City (a qualsevol grau que la gent encara vagi a Atlantic City) també és un trencaclosques clàssic de la lògica anomenat "Bandit Múltiple": a les màquines escurabutxaques se les anomena "One-Armed" Bandits », envellint tipus Reno, perquè tenen una palanca i tenen els diners de la gent. Tot i que no hi ha cap manera correcta de fer front a les situacions de bandolers multi-armats, el candidat més proper és l’índex Gittins: hi ha enfocaments estratègics per fer front a aquests problemes que veieu sense registrar-vos cada dia quan us connecteu. Moltes d’algorismes que regulen la forma en què apareixen continguts a través de Google i de llocs web es basen en estratègies MAB. L’objectiu en gairebé tots els casos és vincular l’aprenentatge i els resultats i maximitzar el potencial de tots dos.

Es fa servir un enfocament de bandolerisme amb múltiples armes El Washington Post per esbrinar quines fotos i titulars és més probable fer clic, i per xarxes sense fils per esbrinar quines rutes òptimes de conservació d'energia són les millors. Els algorismes que es desenvolupen a partir dels enfocaments MBA són molt importants per a aquestes empreses i per a molts altres perquè bàsicament determinen quan i quins anuncis apareixen en línia.

Esbrineu quins anuncis mostrar a la gent són un problema difícil, ja que hi ha tants bandits d’un sol armat fent clic a Internet fent clic a coses. Els algorismes MAB per a anuncis publicitaris solen utilitzar un "problema de bandolers multi-armats mortals" canviant ràpidament, que s'aplica a períodes finits de temps. Les dades de trànsit s'utilitzen per desenvolupar metodologies cada vegada més efectives.

És difícil fixar els MAB amb un propòsit exacte, ja que és possible crear tantes variacions de la fórmula. Els bandolers armats K, per exemple, tenen "armes" que competeixen per obtenir la màxima recompensa esperada. Contextualitzar els bandolers fan el mateix, però amb "assessorament d'experts" - dades recopilades prèviament a l'usuari - i el web-ready anomenat "ILOVETOCONBANDITS" només funciona en un calendari de rondes predeterminades. Per contra, un enfocament clàssic del MAB no té informació lateral possible i el resultat només depèn del potencial de l'acció triada.

Tot i que l'aplicació més útil per als MAB fins ara sembla relacionada amb Internet, els investigadors treballen per trobar una manera d'aplicar-los a escenaris de "vida real" (també coneguts com carnspace). En un document de 2015, investigadors de la Universitat de Colúmbia Britànica consideren l’aplicació de MAB a assajos mèdics. L’objectiu, si MABs és possible aquí, és que un algoritme MAB podria mesurar l’efecte d’una determinada medicació. El problema obvi és que, tret que es pogués crear una versió modulada per ordinador, el fet d’aconseguir aquest enfocament seria massa lent. No hi ha cap manera que es pugui dissenyar un MAB dins d’un assaig clínic.

La idea és bona, però ara no és factible. Fins que el futur no s’aconsegueixi, en la seva majoria sentiràs la presència d’un bandit de múltiples armes quan intenteu fer clic a fora dels anuncis emergents.

$config[ads_kvadrat] not found