Technisches Social Media Monitoring – Technologie

Wie funktioniert Social Media Monitoring?

Erfassung der Quellen aus dem Social Media Kosmos

Für eine zuverlässige Erfassung von Internetquellen ist eine funktionierende Crawler-Software erforderlich. Diese indexiert die Quellen im Internet in festgelegten Abständen und speichert die Treffer in eine Datenbank ab. Die Crawler arbeiten dabei ähnlich einer Suchmaschine. Sie stöbern im Internet nach Daten und lesen die Inhalte aus. Das Vorgehen des Auslesens folgt gewissen Regeln, die je nach Plattform variieren. So benötigen beispielsweise Foren andere Strukturen, als Facebook. Einschränkungen hierbei sind vermehrt im Bereich der redaktionellen Inhalte zu beobachten. Die zunehmende Verbreitung von Bezahlsperren oder Blockierungen, um Spam zu vermeiden, erschwert die Bereitstellung aller Quellen, da diese Treffer nicht korrekt eingelesen werden können. Es gibt auch Plattformen in Deutschland, die ein ungezieltes Auslesen Ihrer Seiten komplett unterbinden. Ein Beispiel hierfür sind die Karrierenetzwerke LinkedIn und Xing. Hier ist es nur möglich, gezielt einzelne Kanäle mit Zugangsdaten auszulesen.

Einige Web-Plattformen, auch oft Foren, unterbinden nur das komplette Indexieren ihrer Seiten, um die eigene Serverlast niedriger zu halten. Um diese Einschränkungen soweit wie möglich zu umgehen, werden sogenannte Observer-Technologien eingesetzt. Hierbei wird nicht die gesamte Seite mit allen Inhalten immer wieder eingelesen, sondern nur Veränderungen seit dem letzten “Besuch” des Crawlers erkannt. Dies können neue Tweets in Twitter-Accounts sein, ein neuer Blogpost oder neue Einträge in Frage-Antwort-Portalen. Diese Veränderungen werden dann gezielt indexiert und abgespeichert. Dies spart die Ressourcen, sowohl des Anbieters, als auch die des Portals.

Fazit ist: eine 100%ige Abdeckung der Medienlandschaft im Internet schon rein technisch nicht umsetzbar.

Eine weitere Hürde zeigt sich bei der korrekten Zuordnung von Medien zu bestimmten Mediengattungen. Da die Grenzen durch Kommentarfunktionen und Blogs auf redaktionellen Seiten immer mehr verschwimmen, ist eine Zuordnung einer bestimmten Webseite oder Plattform zu einer bestimmten Mediengattung nicht immer einfach. Dieser Entwicklung muss auch im Social Media Monitoring Rechnung getragen werden.

Aufbereitung und Bereitstellung der Daten

Wenn die aktuellen Daten erfolgreich indexiert wurden, müssen diese vor der Ablage in Datenbanken um unnötige Fragmente bereinigt werden. Hierzu zählen beispielsweise HTML-Schnipsel, Verlinkungen oder Werbung. Ein automatisierter Abgleich nach Dubletten stellt sicher, dass keine doppelten Posts abgelegt werden und das Endergebnis verfälschen. Gerade Blogs oder redaktionelle Seiten veröffentlichen immer wieder Updates oder Änderungen Ihrer Artikel auf verschiedenen Unterseiten und generieren so mehrere identische Treffer. Moderne Software ist darüber hinaus in der Lage, Relevanz und Qualität der Daten selbstständig zu überprüfen. Beispielsweise können bestimmte Quellen anhand ergiebiger Treffer bevorzugt und öfter indexiert werden. Dabei kann man sich an der Länge der Beiträge, bestimmten Worten oder der Relevanz der User (Branche, Themen) orientieren.

Abfragen der Daten

Sind die Daten in der Datenbank bereinigt und abgelegt, werden modulare Funktionen zur Weiterverarbeitung dieser Daten benötigt. Hierzu werden Methoden entwickelt, mit deren Hilfe die Daten abgefragt werden können. Im User-Interface wird dies durch die Rechteverwaltung und das Login gesteuert.

Modularer Aufbau

Die Ansprüche an die bereitgestellte Technologie sind vielfältig. Das wichtigste Erfordernis ist jedoch die Erweiterbarkeit. Herkömmliche Monitoring-Tools sind im Prinzip beliebig erweiterbar. Sie setzen sich aus programmierten Modulen zusammen, die zusammengesetzt werden. Dies hat den Vorteil, dass zur Behebung von Fehlern einzelne Module abgeschaltet werden können, ohne die Gesamtfunktionalität des Social Media Tools zu beeinträchtigen. Außerdem können die einzelnen Module als Features in verschiedenen Lizenzstufen angeboten und bepreist werden. Über die Rechteverwaltung gewährt man dem Kunden, je nach Lizenz, den Zugriff auf die gebuchten Module.
Typische Zusatzmodule einer erweiterten Lizenz für den Kunden sind zum Beispiel die Bilderkennung, automatisches Sentiment und ein Trend-Rating.

Für den Anbieter liegen die Vorteile in der gezielten Programmierung einzelner Module durch Spezialisten. Hier muss dem einzelnen Entwickler nicht die gesamte Infrastruktur des Tools bekannt sein, er kann sich auf sein Spezialgebiet konzentrieren. Auch individuelle Erweiterungen können auf Kundenwunsch mit diesem modularen Prinzip einfach umgesetzt und bepreist werden. Software, die nicht nach einem modularen System aufgebaut ist, ist im Nachhinein nur noch mit großem Aufwand an Zeit und Ressourcen erweiterbar. In Zeiten des schnellen Wandels der Medien ist dies nicht effizient.

Zweckentfremdete Suchtechnologien

Suchtechnologien, die auf eine starre Suche ausgerichtet sind und eventuell schon bestehen, laden geradezu dazu ein, als Teil der Software für Social Media Monitoring verwendet zu werden. Davon ist jedoch abzuraten, da diese nicht flexibel genug sind, um die Bereinigung und Weiterverarbeitung der Daten zu gewährleisten.

Technische Umgebung eines Social Media Monitoring Tools

Für jede Software wird eine geeignete IT-Infrastruktur benötigt. Je komplexer die Funktionsabläufe sind, desto höher die Anforderungen an die technische Umsetzung. Eine Agentur, die ein eigenes Social Media Tool entwickelt, muss also technisch gut aufgestellt sein. Nicht nur die Hardware muss auf dem aktuellsten Stand gehalten werden, auch die Systemumgebung erfordert eine laufende Anpassung an die neuesten Erfordernisse.
Solch eine komplexe IT-Infrastruktur muss von Anfang an gut durchdacht und skizziert sein. Technische wie auch personelle Ressourcen müssen für jeden Eventualfall bereitstehen.

Auch die strategische Ausrichtung des Unternehmens spielt bei der Planung eines Monitoring-Tools eine wichtige Rolle. Da sich der Markt, besonders im Onlinebereich, schnell ändert, sind solche Plattformen auf Wachstum und Flexibilität ausgerichtet. Die Grundkomponenten für eine solche Struktur setzen sich aus Servern, einem Datenbanksystem und der Crawler-Software zusammen.