Skalierbarer Content mit Artificial Intelligence
Idealerweise ist jeder über sämtliche Medien und Kanäle publizierte Content markenkonform und zielgerichtet und wird entsprechend über die involvierten Personen sowie Abteilungen konsistent erstellt. Allerdings haben diese eigene Vorstellungen, Schreibstile, unterschiedliche Blickwinkel oder setzen verschiedene Prioritäten. So besteht die Gefahr, dass widersprüchliche Informationen auf unterschiedlichen Kanälen zu lesen sind, Produktbezeichnungen inkonsistent verwendet werden oder sich Rechtschreibfehler in Texte einschleichen. Dies schmälert das Vertrauen der Zielgruppe und schwächt somit die Marke.
Die Frage ist also, wie es Unternehmen gelingt, markenkonformen und zielgerichteten Content zu skalieren. Bei der Content-Flut wird schnell deutlich, dass ein menschliches Lektorat damit überfordert ist. Wäre es nicht wunderbar, wenn es maschinell messbar wäre, wie markenkonform und überzeugend ein Text ist? Jederzeit verfügbar, in Sekundenbruchteilen Ergebnisse und das Ganze extrem kosteneffizient. Die gute Nachricht: Es gibt Software, die das kann!
Zweifelsohne kann nur eine intelligente Software diese Herausforderung meistern. Deshalb fällt diese Aufgabenstellung in den Bereich der Artificial Intelligence (AI). Diese Disziplin befasst sich laut Wikipedia mit dem Versuch, eine menschenähnliche Intelligenz nachzubilden, d. h., einen Computer zu bauen oder so zu programmieren, dass er eigenständig Probleme bearbeiten kann. Um Texte maschinell zu messen und damit den von Content zu bewerten, sind Konzepte wissensbasierter Systeme erforderlich. Sie modellieren eine Form rationaler Intelligenz für solche Expertensysteme, die auf einem tiefen Verständnis der jeweiligen Sprache basieren.
Wenn Sprache maschinell verarbeitet wird, durchläuft sie verschiedene Analyse- und Verarbeitungsschritte. Im Falle von linguistischer Autorenunterstützung beginnt die Analyse des Texts auf Zeichenebene: Es wird untersucht, welche Zeichen sprachlich sind, welche nicht, und wo die Wortgrenzen verlaufen. Darauf aufbauend erfolgt eine linguistische Analyse der Wortbestandteile. Am Ende der Kette steht die Erkennung der Satzgrenzen und Satzglieder. Erstere werden meistens über Satzzeichen sowie die Groß- und Kleinschreibung von Wörtern ermittelt. An diesem Punkt setzt satzbasierte Sprachverarbeitung an. Satzbasierte Textverarbeitung bedeutet eine Analyse Satz für Satz. Dabei sucht die Software nach den notwendigen Komponenten für diesen Satztyp. So bestimmt sie bei einer Überprüfung des Texts Fehler im Kontext des Satzes, in dem sie auftreten.
Je nach Technologie gibt es große Unterschiede bei der Textprüfung. Fast jedes System – zum Beispiel Microsoft Word – bietet eine Rechtschreibprüfung an. Wenn die Qualität dieser beurteilt werden soll, ist die Anzahl der False-Positives, also jener Wörter, die der Engine unbekannt, aber richtig geschrieben sind, ein wichtiges Kriterium. Denn sie bedeuten für den Anwender Aufwand, der eventuell dazu führt, dass die elektronische Prüfung länger dauert als ein gründliches Korrekturlesen. Sie sollten also so gering wie möglich sein.
Es handelt sich also um kein Hexenwerk, sondern um einen nachvollziehbaren Prozess.
Die Frage ist also, wie es Unternehmen gelingt, markenkonformen und zielgerichteten Content zu skalieren. Bei der Content-Flut wird schnell deutlich, dass ein menschliches Lektorat damit überfordert ist. Wäre es nicht wunderbar, wenn es maschinell messbar wäre, wie markenkonform und überzeugend ein Text ist? Jederzeit verfügbar, in Sekundenbruchteilen Ergebnisse und das Ganze extrem kosteneffizient. Die gute Nachricht: Es gibt Software, die das kann!
Zweifelsohne kann nur eine intelligente Software diese Herausforderung meistern. Deshalb fällt diese Aufgabenstellung in den Bereich der Artificial Intelligence (AI). Diese Disziplin befasst sich laut Wikipedia mit dem Versuch, eine menschenähnliche Intelligenz nachzubilden, d. h., einen Computer zu bauen oder so zu programmieren, dass er eigenständig Probleme bearbeiten kann. Um Texte maschinell zu messen und damit den von Content zu bewerten, sind Konzepte wissensbasierter Systeme erforderlich. Sie modellieren eine Form rationaler Intelligenz für solche Expertensysteme, die auf einem tiefen Verständnis der jeweiligen Sprache basieren.
Wenn Sprache maschinell verarbeitet wird, durchläuft sie verschiedene Analyse- und Verarbeitungsschritte. Im Falle von linguistischer Autorenunterstützung beginnt die Analyse des Texts auf Zeichenebene: Es wird untersucht, welche Zeichen sprachlich sind, welche nicht, und wo die Wortgrenzen verlaufen. Darauf aufbauend erfolgt eine linguistische Analyse der Wortbestandteile. Am Ende der Kette steht die Erkennung der Satzgrenzen und Satzglieder. Erstere werden meistens über Satzzeichen sowie die Groß- und Kleinschreibung von Wörtern ermittelt. An diesem Punkt setzt satzbasierte Sprachverarbeitung an. Satzbasierte Textverarbeitung bedeutet eine Analyse Satz für Satz. Dabei sucht die Software nach den notwendigen Komponenten für diesen Satztyp. So bestimmt sie bei einer Überprüfung des Texts Fehler im Kontext des Satzes, in dem sie auftreten.
Je nach Technologie gibt es große Unterschiede bei der Textprüfung. Fast jedes System – zum Beispiel Microsoft Word – bietet eine Rechtschreibprüfung an. Wenn die Qualität dieser beurteilt werden soll, ist die Anzahl der False-Positives, also jener Wörter, die der Engine unbekannt, aber richtig geschrieben sind, ein wichtiges Kriterium. Denn sie bedeuten für den Anwender Aufwand, der eventuell dazu führt, dass die elektronische Prüfung länger dauert als ein gründliches Korrekturlesen. Sie sollten also so gering wie möglich sein.
Es handelt sich also um kein Hexenwerk, sondern um einen nachvollziehbaren Prozess.