Die Initiative „Data Exchange“ bringt Datenspezialistinnen und -spezialisten aus allen Unternehmensbereichen von Bertelsmann zusammen. Sie tauschen Know-how aus, stimmen die Prioritäten in Sachen Cloud, Data und Künstliche Intelligenz (KI) ab und planen bereichsübergreifende Projekte. In Meetings und Hackathons geht es dabei auch um ganz konkrete Anwendungsfälle für Bertelsmann, etwa KI-gesteuerte Analysen, sprachgesteuerte Suchfunktionen für Videoinhalte oder automatisierte Podcast-Hörempfehlungen. Das Experten-Netzwerk zählt inzwischen weltweit mehr als 400 Mitglieder und trifft sich regelmäßig in Europa und den USA.
Mit seinem „Median Data Science Program“ spricht Bertelsmann angehende Datenspezialistinnen und -spezialisten führender Hochschulen an, um sie für die Umsetzung der Tech Agenda des Konzerns zu gewinnen. Den jungen Talenten mit Leidenschaft für Themen wie Data Science, Statistik, angewandte Mathematik, Physik und IT bietet Bertelsmann ein ambitioniertes, international ausgerichtetes Karriereprogramm, das sich über 15 Monate erstreckt. Wer sich qualifiziert, lernt an der Seite von Bertelsmann-Datenprofis mindestens drei Projekte in unterschiedlichen Unternehmensbereichen kennen und kann sich dabei aktiv einbringen. 2019 schließen die ersten fünf Tech-Talente das Trainee-Programm erfolgreich ab.
Cloud-Lösungen helfen Bertelsmann dabei, eine engere Zusammenarbeit bei Datenanalyse-Tools und bei der Softwareentwicklung innerhalb des Konzerns zu erreichen und so die Workflows und IT-Strukturen zu optimieren. Zentraler Anlaufpunkt ist die cloudbasierte „Bertelsmann Collaboration Platform“ als Marktplatz zum Austausch technischer Lösungen. Dort können IT-Lösungen, die sich in einer Firma als hilfreich erwiesen haben, unternehmensweit vorgestellt und geteilt werden.
Das gedruckte Buch hat auf den ersten Blick nicht unbedingt etwas mit digitalen Datennetzen zu tun – trotzdem sind Themen wie Cloud und Künstliche Intelligenz auch für Verlage in wachsendem Maße Erfolgsfaktoren. Mithilfe von Metadaten wie Schlagwörtern können Bücher – ob gedruckt, elektronisch oder als Hörbuch – beispielsweise in Onlineshops optimal platziert werden. Die effiziente Datenanalyse und der Einsatz Künstlicher Intelligenz sind auch bei Penguin Random House von entscheidendem Wert für die Titelvermarktung. Seit 2019 können alle Verlage der Gruppe die cloudbasierte Plattform „Global Data Hub“ nutzen, um intelligente Daten- und IT-Lösungen noch besser in das Verlagsgeschäft zu integrieren.
Penguin Random House hat sich mit solchen und anderen Initiativen den Rang und Ruf des unbestrittenen Technologieführers in der Buchbranche erarbeitet. Nach dem kreativen Prozess auf Seiten der Autorinnen und Autoren und des Lektorats im Verlag werden sowohl die Preisfindung im Onlinebuchhandel, die Lagerung und der Vertrieb als auch der Versand heute weltweit von ausgeklügelter IT gesteuert.
Eine „Brigitte“-Leserin, die Krimi-Podcasts hört und schon häufiger an Gewinnspielen für Reisen nach Sylt teilgenommen hat, dürfte sich auch für ein „Stern Crime“-Abo oder den „Geo“-Kalender „Deutschlands schönste Landschaften“ interessieren. Damit Verlagskundinnen und -kunden genau solche passgenauen Vorschläge für weitere Gruner + Jahr-Produkte erhalten können, setzen die Vertriebsexperten des Medienhauses auf cloudbasierte Systeme und Künstliche Intelligenz.
Seit 2019 arbeitet Gruner + Jahr mit dem Cloud-Computing-Anbieter Salesforce zusammen, um mittels vernetzter Cloud-Systeme u. a. für Marketing, Kampagnen- und Empfehlungsmanagement die vorhandenen Kundendaten DSGVO-konform zu analysieren. Ausgehend von einem Kontaktpunkt werden verschiedene Möglichkeiten der weiteren Interaktion im Voraus geplant. Im nächsten Schritt werden dann automatisiert crossmediale Werbemaßnahmen ausgespielt. Von maßgeschneiderten Shop-Angeboten bis hin zur individuellen Gesprächsgestaltung im Kundenservice ist es so möglich, sowohl die Kaufwahrscheinlichkeit als auch die Kundenzufriedenheit zu erhöhen.
Arvato Supply Chain Solutions nutzt die Vorteile von Datenanalyse und Künstlicher Intelligenz, um Prozesse innerhalb der Logistik effizienter, schneller und kostengünstiger zu gestalten. In zwei Data-Science-Teams werden alle Daten, die entlang der Wertschöpfungskette auf Kundenseite, bei Auftraggebern, Lieferanten und Transportdienstleistern entstehen, rückwirkend auf mögliche Schwachstellen analysiert.
Dabei kann beispielsweise auffallen, dass ein online angebotenes Produkt zwar häufig geordert, aufgrund eines irreführenden Beschreibungstextes aber mehrfach zurückgesendet wurde. Eine solche Schwachstelle kann rasch manuell behoben werden – angesichts von 950 Millionen versendeten Artikeln und mehr als zehn Millionen Retouren, die jährlich die Arvato-Logistikstandorte durchlaufen, wird aber das Potenzial durch automatisierte Verbesserungen deutlich.
Wenn eine Kundin das gleiche Kleid in zwei verschiedenen Größen bestellt, dann ist die Wahrscheinlichkeit hoch, dass eines der beiden zurückgeschickt wird. Algorithmen erkennen solche Muster und helfen, in der Folge Prozessketten, Wegstrecken im Warehouse, Lagerflächen- und Personalbedarf zu optimieren.