skip to Main Content
JETZT DEMO ANFORDERN >

Multi Armed Bandit

Wie bekomme ich am besten Leser auf meinen Artikel? Welche Überschrift und welches Bild eignen sich am besten? Diese Fragen beschäftigen Journalisten täglich.

Merkurist hat für den Newsroom deshalb den Multi-Armed-Bandit Algorithmus entwickelt, der Journalisten genau diese Fragestellung abnimmt. Sie können einfach verschiedene Varianten von Überschriften und Bildern anlegen und der Algorithmus evaluiert automatisch, welche Kombination beider Elemente die besseren Performancewerte erzielt. Hierfür führt der Algorithmus in Echtzeit Tests verschiedener Bild-Titel-Kombinationen durch bis auf Basis eines signifikanten Leserfeedbacks eine eindeutige Aussage zur besten Kombination getroffen werden kann.

Diese beste Variante aus Bild und Überschrift „gewinnt“ dann und wird Lesern im Folgenden zu 100% ausgespielt.

Was zieht beim Leser – Testen Sie Ihr Gespür

Hier zeigen wir Ihnen verschiedene Mutli-Armed-Bandit-Ergebnisse von unseren Merkurist-Partnern. Wir haben jeweils zwei verschiede Bilder mit zwei verschiedenen Überschriften getestet. Klicken Sie auf die Kombination, von der Sie denken, dass diese am erfolgreichsten bei unseren Lesern angekommen ist. Mal sehen, ob Ihre Einschätzung mit dem Erfolg beim Leser übereinstimmt.

1

2

3

4

Wie funktioniert der Multi-Armed-Bandit

Das Multi-Armed-Bandit-Experiment beschreibt einen hypothetischen Test, in dem mehrere „einarmige Banditen“ (Spielautomaten) analysiert werden. Ziel ist es, den Spielautomaten zu finden, der die höchste Auszahlungsrate hat. Für die Umsetzung des Multi-Armed-Bandit-Verfahrens werden komplexe Wahrscheinlichkeitsrechnungen durchgeführt.

Tests, die auf dem Multi-Armed-Bandit-Verfahren basieren, sind im allgemeinen effizienter als das „klassische“ A-B-Testing, das auf statistischen Hypothesentests basiert. Die Multi-Armed-Bandit-Tests sind effizienter, da sie die Zugriffe schrittweise in Richtung der gewinnbringenden Varianten verschieben. Sie müssen nicht auf eine „endgültige Antwort“ am Ende eines Tests warten.

Unter diesem Link können Sie noch mehr Details zum Multi-Armed-Bandit-Algorithmus erfahren.

Merkurist überträgt das Multi-Armed-Bandit-Verfahren auf Content. In Newsrooms kann es von Journalisten dafür genutzt werden, dynamisch die Überschrift und das Bild für einen Artikel zu ermitteln, mit denen die beste Klickrate erzielt wird.

MAB-Konzept

Ergebnisse des Multi-Armed-Bandit-Algorithmus

MAB-Beispiel
Back To Top