Wie Marketer mit Hilfe der erweiterten Smart Tags Funktion von Adobe die relevantesten UGC Videos finden

Technologie

Allein in den USA steck­en Mar­keter jedes Jahr sat­te zehn Mil­liar­den Dol­lar in Con­tent, davon fließt die Hälfte in die Erstel­lung von neuen Inhal­ten. Umso überraschen­der ist daher, dass knapp zwanzig Cent pro investiertem Dol­lar ver­schwen­det sind – über das Jahr gese­hen sum­miert sich der Ver­lust auf eine Mil­liarde Dol­lar. Schuld sind inef­fiziente Prozesse. Hinzu kommt, dass 2018 nur 28 Prozent der Mar­keter erkennbare Erfolge für ihre Con­tent Mar­ket­ing Kam­pag­nen vorzeigen kon­nten. Mit der Fest­stel­lung, dass das Con­tent Mar­ket­ing ern­sthafte Skalierung­sprob­leme hat, lehnt man sich also nicht wirk­lich weit aus dem Fen­ster.

Die Anzahl der Con­tents und Devices steigt unge­bremst, Marken sind mit ein­er Welt kon­fron­tiert, die nach immer mehr neuen Inhal­ten ver­langt, gle­ichzeit­ig aber auch mehr Per­son­al­isierung fordert. Die Lösung: User Gen­er­at­ed Con­tent (UGC). UGC ist nicht nur gün­stig – so man die Rechte erwirbt, meis­tens sog­ar kosten­los –, er ist außer­dem authen­tis­ch­er und per­formt bess­er. 64 Prozent der Social Media Nutzer suchen aktiv nach UGC bevor sie eine Kaufentschei­dung tre­f­fen. Diese Videos haben dabei zehn Prozent mehr Views als Clips, die von Marken hochge­laden wur­den. Etablierte Marken wie Apple oder Star­bucks set­zen deshalb bere­its seit Jahren auf UGC für ihre Con­tent Mar­ket­ing Strate­gien. Das heißt aber auch: Mar­keter müssen unzäh­lige Social Media Posts sicht­en, um die Nadel im Heuhaufen zu find­en.

Mit KI den besten UGC finden

Um Mar­ketern diese Her­aus­forderung abzunehmen und die zuvor von Hand getrof­fene Auswahl des UGC zu automa­tisieren, set­zt Adobe auf Kün­stliche Intel­li­genz. Das durch Adobe Sen­sei, dem Frame­work für KI und maschinelles Ler­nen von Adobe, unter­stützte Smart Tags Tool durch­sucht Bilder automa­tisch. Die Soft­ware iden­ti­fiziert das Haupt­mo­tiv, die Objek­tkat­e­gorien und die ästhetis­chen Eigen­schaften. Das Ergeb­nis wird in deskrip­tiv­en Tags fest­ge­hal­ten. Mar­keter kön­nen so diejeni­gen Bild­in­halte aussieben, die nicht ihren Suchkri­te­rien entsprechen. Doch obwohl Smart Tags eine große Hil­fe für die Bild­suche bietet: Die Hauptwährung im Web sind Videos.

Das Videoange­bot wächst ras­ant – laut Cis­co wer­den bis 2021 Videos 82 Prozent des gesamten Web Traf­fics aus­machen. Allein auf Insta­gram wur­den let­ztes Jahr vier Mal mehr Videos hochge­laden. Für Mar­keter und Tech­nolo­gen ist das eine Her­aus­forderung. Um Video Con­tent auszuwählen und rel­e­vantes Mate­r­i­al zu find­en, müssen sie unzäh­lige Videos anschauen. Da Videos umfan­gre­ich­er und zeit­in­ten­siv­er als einzelne Bilder sind, ist das Klas­si­fizieren, Fil­tern und Ver­schlag­worten erhe­blich aufwändi­ger. Deshalb haben wir uns mit Adobe Research und dem Search Team von Adobe zusam­mengeschlossen, um die aktuellen Smart Tags des Adobe Expe­ri­ence Man­agers für die UGC Videok­las­si­fika­tion anzu­passen.

Der Weg zur Implementierung von Video Smart Tags in den Adobe Experience Manager

Zur Auf­gabe haben wir es uns gemacht, eine Rei­he rel­e­van­ter Tags für Video automa­tisch zu vergeben. Das Ergeb­nis: Der Video Auto Tag Adobe Sen­sei Ser­vice. Für bis zu sechzig Sekun­den lange Videos wer­den dabei zwei Arten von Tags fest­gelegt. Das erste fasst die im Video iden­ti­fizierten Objek­te, Szenen und Attribute zusam­men, das zweite die Hand­lun­gen. Das Suchen und Wiederfind­en von Videos wird so erhe­blich ein­fach­er.

Grund­lage des Video Auto Tag Ser­vice ist unsere bere­its beste­hende Auto-Tag­ging Tech­nolo­gie für Bilder. Diese anhand der umfassenden inter­nen Adobe Bild­daten­bank trainierte Soft­ware ver­fügt über einen großen Begriffs­wortschatz. Dieser ermöglicht es ihr, die entsprechen­den Tags zuzuord­nen. Da ein Video eine Abfolge von mehreren Frames ist, kön­nen wir den Bild-Auto-Tag­ger auf diese Einzel­frames anset­zen. Die Ergeb­nisse der Einzel­bilder lassen sich dann zu einem Tag-Satz für das gesamte Video zusam­men­fassen. So entste­hen mehrere Tags, die die Objek­te, Szenen und Attribute des Videos wider­spiegeln – denn genau dafür wurde der Auto-Tag­ger für Bilder entwick­elt.

Neben den Objek­ten, Szenen und Attribut­en ist es entschei­dend, auch zeitab­hängige Ereignisse – Hand­lun­gen und Aktiv­itäten –, beispiel­sweise „trinken“ oder „sprin­gen“, zu klas­si­fizieren. Hier­für wird der Bild-Auto-Tag­ger mith­il­fe zuvor durch User mit Tags verse­hen­er, action­re­ich­er Videos aus dem inter­nen Adobe Daten­satz darauf trainiert, einzelne Hand­lun­gen zu erken­nen. Dieser Action-Auto-Tag­ger wird dann auf mehrere Frames im Video angewen­det. Die Ergeb­nisse wer­den zu einem Action-Auto-Tag für das gesamte Video zusam­menge­fasst.

Welche Learnings ergeben sich für Marketer, Data Scientists und Development Teams?

UGC ist ein essen­tielles Tool, um Con­tent Mar­ket­ing Kosten einzus­paren, Kam­pag­nen effek­tiv­er zu machen und die Her­aus­forderun­gen anzu­pack­en, mit denen Mar­keter heute kon­fron­tiert wer­den. Die Teams, die diese Mar­keter unter­stützen, erhal­ten jet­zt ihrer­seits Unter­stützung durch Soft­ware, die Videos ver­ste­ht und mit Tags ver­sieht. Die Iden­ti­fika­tion und Ein­bindung von wer­tigem USG wird so erhe­blich effizien­ter.

Wir bieten aus­gewählten Grup­pen an, eine Betaver­sion des Video-Auto-Tag­gers zu testen. Klick­en Sie hier, um mehr zu erfahren.


Technologie
Adobe DACH

Posted on 03-12-2018


Jetzt mitdiskutieren