skip to Main Content
JETZT DEMO ANFORDERN >

Multi-Armed-Bandit für dynamisches Testen von Bildern und Überschriften

Wie bekomme ich am besten Leser auf meinen Artikel? Welche Überschrift und welches Bild eignen sich am besten? Diese Fragen beschäftigen Redakteure täglich. Merkurist hat für den Newsroom deshalb den Multi-Armed-Bandit Algorithmus entwickelt, der Redakteuren genau diese Fragestellung abnimmt.

Hiermit können Redakteure einfach verschiedene Varianten von Überschriften und Bildern anlegen und der Algorithmus evaluiert automatisch, welche Kombination beider Elemente die besseren Performancewerte erzielt. Hierfür führt der Algorithmus in Echtzeit Tests verschiedener Bild-Titel-Kombinationen durch, bis auf Basis eines signifikanten Leserfeedbacks eine eindeutige Aussage zur statistisch besten Kombination getroffen werden kann.

Diese beste Variante aus Bild und Überschrift „gewinnt“ dann und wird Lesern im Folgenden zu 100% ausgespielt.

Was zieht beim Leser – Testen Sie Ihr Gespür

Hier zeigen wir Ihnen verschiedene Mutli-Armed-Bandit-Ergebnisse von unseren Merkurist-Partnern. Wir haben jeweils zwei verschiede Bilder mit zwei verschiedenen Überschriften getestet. Klicken Sie auf die Kombination, von der Sie denken, dass diese am erfolgreichsten bei unseren Lesern angekommen ist. Mal sehen, ob Ihre Einschätzung mit dem Erfolg beim Leser übereinstimmt.

1

2

3

4

Wie funktioniert der Multi-Armed-Bandit

Das Multi-Armed-Bandit-Experiment beschreibt einen hypothetischen Test, in dem mehrere „einarmige Banditen“ (Spielautomaten) analysiert werden. Ziel ist es, den Spielautomaten zu finden, der die höchste Auszahlungsrate hat. Für die Umsetzung des Multi-Armed-Bandit-Verfahrens werden komplexe Wahrscheinlichkeitsrechnungen durchgeführt.

Tests, die auf dem Multi-Armed-Bandit-Verfahren basieren, sind im allgemeinen effizienter als das „klassische“ A-B-Testing, das auf statistischen Hypothesentests basiert. Die Multi-Armed-Bandit-Tests sind effizienter, da sie die Zugriffe schrittweise in Richtung der gewinnbringenden Varianten verschieben. Sie müssen nicht auf eine „endgültige Antwort“ am Ende eines Tests warten.

Unter diesem Link können Sie noch mehr Details zum Multi-Armed-Bandit-Algorithmus erfahren.

Merkurist überträgt das Multi-Armed-Bandit-Verfahren auf Content. In Newsrooms kann es von Redakteuren dafür genutzt werden, dynamisch die Überschrift und das Bild für einen Artikel zu ermitteln, mit denen die beste Klickrate erzielt wird.

Multi Armed Bandit Illustration

Ergebnisse des Multi-Armed-Bandit-Algorithmus

Multi Armed Bandit Ergebnis Ansicht
Back To Top