Dass Marketing und Technologie heute Hand in Hand gehen, ist kein Geheimnis mehr. Ob Landingpage erstellen, Newsletter versenden oder den Erfolg einer Kampagne auswerten – all das funktioniert mittlerweile fast ausschließlich mittels technischer Unterstützung. Dabei ist es gar nicht so einfach, aus der Vielzahl an Angeboten die richtigen Tools auszuwählen. Doch ein genauer Blick lohnt sich: Die Kombination verschiedener Lösungen zu einem individuellen MarTech Stack optimiert Prozesse passgenau und unterstützt B2B-Unternehmen so dabei, ihre Marketingziele zu erreichen. Worauf Sie beim Aufbau Ihres maßgeschneiderten MarTech Stacks achten sollten, verraten Ihnen die folgenden Tipps:
Tipp 1: Die Ist-Situation analysieren
Zunächst gilt es, sich einen Überblick über frühere und aktuelle Marketingaktivitäten zu verschaffen. Was funktioniert gut? Welche Maßnahmen bringen nicht den gewünschten Erfolg? Bei welchen Prozessen treten wiederholt Schwierigkeiten auf? Sind Maßnahmen geplant, werden aber (noch) nicht umgesetzt? Erst wenn Unternehmen all diese Fragen für sich beantwortet und einen Überblick über ihr derzeitiges Marketing-Doing haben, lohnt sich der nächste Schritt in Richtung MarTech Stack.
Tipp 2: Die Anforderungen definieren
Ist die Analyse abgeschlossen, ergeben sich daraus viele wertvolle Erkenntnisse – nicht nur im Hinblick auf eine etwaige Notwendigkeit, die Marketingstrategie zu adaptieren, sondern auch bezüglich möglicher softwareseitiger Lücken. Besonderes Augenmerk sollte vor allem auf den Kundenprozessen liegen. Aus den angestrebten Zielen und den daraus abgeleiteten Anforderungen ergibt sich dann der individuelle Software-Bedarf für Ihr B2B-Unternehmen.
Tipp 3: Den Markt sondieren
Zugunsten eines MarTech Stacks, der unternehmensspezifische Prozesse optimal abbildet und ein B2B-Unternehmen dabei unterstützt, seine Marketingziele zu erreichen, ist es unabdingbar, sich genauestens mit den Anbietern und ihren Lösungen zu beschäftigen. Dabei kann eine MarTech-Landkarte sehr hilfreich sein. Sie gibt einen guten Überblick über die Anbieter
in verschiedenen Bereichen. Solche MarTech-Reports und -Landschaftsübersichten lassen sich online abrufen. Auch das Lesen von Rezensionen oder Case-Studies kann bei der Marktanalyse helfen. Mit einer aus der Analyse resultierenden Shortlist, auf der die potenziell passenden Anbieter vermerkt sind, können Unternehmen im nächsten Schritt auf ebendiese zugehen und Angebote einholen.
Tipp 4: Sich für einen Weg entscheiden
Um einen bedarfsgerechten MarTech Stack aufzubauen, gibt es zwei Möglichkeiten: Die Einführung einer Software Suite oder der Best-of-Breed-Ansatz. Während ersteres eine ganzheitliche Lösung aus einem Produkt-Bundle abbildet, bietet der Best-of-Breed-Ansatz die Möglichkeit, das Beste aus verschiedenen Welten zu vereinen und unterschiedlich spezialisierte Softwarelösungen zu verknüpfen. Beide Wege haben ihre Vorteile, doch Best-of-Breed-Lösungen bietet eine flexible Kombination aus passgenauen Marketing-Technologien, mit denen B2B-Unternehmen flexibler am Markt agieren können.
Die größten Vorteile eines Best-of-Breed-MarTech-Stack
Flexibel: Zahlreiche Schnittstellen und Konnektoren ermöglichen auch zukünftig eine flexible Anpassung.
Erweiterbar: Best-of-Breed- Lösungen sind modular aufgebaut und lassen sich leicht erweitern, um individuelle Anforderungen zu erfüllen.
Spezialisiert: Jedes Tool innerhalb des Stacks bringt einen spezialisierten Marketingdienst mit.
Erprobt: Unternehmen können vorhandene, bewährte Lösungen weiterhin nutzen.
Passgenau: Unternehmen können exakt die Systeme einsetzen, die sie benötigen, um ihre strategischen und operativen Marketingziele zu erreichen.
Anbindbar: Über standardisierte Schnittstellen sind auch die Systeme etwaiger Partner anbindbar, sodass sich Daten schnell und einfach austauschen lassen.
Heterogen: Best-of-Breed-Lösungen eignen sich insbesondere für heterogene IT-Infrastrukturen.
Schnell: Durch spezialisierte Systeme, die sich auf ihre Kernkompetenz fokussieren, überzeugen Best-of-Breed-Lösungen mit einem kürzeren Innovationszyklus.
Ablösbar: Erweist sich eine Komponente des MarTech Stack irgendwann als nicht mehr nützlich, ist die deutlich einfacher ablösbar als eine Suite.
Tipp 5: Die Technologie anschaffen
Bei der Einführung der benötigten Tools empfiehlt es sich, nicht direkt den großen Wurf zu versuchen. Besser ist es, sich erst mit einer Lösung vertraut zu machen und sich einen sicheren Umgang mit ihr anzueignen – und erst dann das nächste Tool zu implementieren. Auf diese Weise stehen die Mitarbeitenden nicht vor einem schier unendlichen Konstrukt aus Software, das es zu durchdringen gilt und Unternehmen investieren nicht in ein Tool Y, das sich letztlich als überflüssig erweist, weil Tool X das gleiche Aufgabenfeld bereits abdeckt.
Tipp 6: Technologien verknüpfen
Damit sich Prozesse dennoch lückenlos abbilden lassen, ist die Integration der Tools entscheidend. Dies gelingt in der Regel via Schnittstellen. Bei einem Best-of-Breed-Ansatz empfiehlt sich außerdem, zum Beispiel ein Marketing Automation Tool zu wählen, das Bestandteil eines Ökosystems, also eines Zusammenschlusses aus sich ergänzenden Lösungsherstellern, ist und wo eine Anbindung über offene Application Programming Interfaces (APIs), standardisierte Konnektoren oder Middleware-Lösungen die Praxis ist.
Tipp 7: Ein MarTech-Audit durchführen
Nachdem die erforderlichen Lösungen angeschafft und integriert sind, braucht es eine regelmäßige Überprüfung: Erfüllen die Tools noch den aktuellen Bedarf? Ist eine Lösung womöglich obsolet geworden? Wäre es vielleicht sinnvoll, den aktuellen MarTech Stack um weitere Systeme zu ergänzen? Nur wer seine Marketing-Toolbox immer wieder prüft, kann auf Dauer effiziente wie effektive Arbeitsprozesse gewährleisten und von dem individuellen MarTech Stack profitieren.
Fazit
Marketingprozesse effizienter und reibungsloser zu gestalten verschafft Wettbewerbsvorteile. Der richtige Aufbau eines individuellen MarTech Stacks ist entscheidend für den Erfolg von B2B-Unternehmen im heutigen volatilen Geschäftsumfeld. Umso wichtiger ist es auch, all diese Lösungen in Form einer zentralen Plattform zu konsolidieren. Die schrittweise Einführung und Implementierung von Technologien haben sich dabei bewährt, denn sie tragen zu einem smarten Umgang mit der Marketing-Toolbox bei. Ein regelmäßiges MarTech-Audit rundet den Mehrwert von MarTech ab, indem es Potenziale deutlich macht und so die Anpassung des Stacks ermöglicht, um optimale Ergebnisse zu erzielen.
Unternehmen sind oft an starre IT-Strukturen gebunden. Wie schnell sie Produkte einführen oder auf Marktveränderungen reagieren können, diktiert der Softwarehersteller. Dabei müsste genau das Gegenteil der Fall sein: Das technologische Toolkit sollte sich den Bedürfnissen der Firmen anpassen. Die Lösung ist ein Composability-Ansatz, der die Alleinherrschaft des Vendors beendet und mit dem sich Organisationen ihre Anwendungen nach dem Baukasten-Prinzip zusammenstellen können. Der Digital-Dienstleister Macaw erklärt die Prinzipien und die Vorteile für IT und Marketing.
Traditionell haben sich Unternehmen monolithische Software-Architekturen angeschafft. Das Problem: Die großen Systeme mit voneinander abhängigen Komponenten reagieren zu schwerfällig, wenn sich Geschäftsanforderungen ändern. IT-Abteilungen müssen dann umständlich neue Funktionalitäten in eine Software integrieren, die aber gar nicht für Erweiterungen ausgelegt ist. Das Resultat ist eine komplexe und teure Struktur, die die Flexibilität der Marketing-Abteilungen einschränkt. Weder können sie damit auf neue Kundenwünsche zeitnah reagieren, noch personalisierte Customer Journeys aufbauen. Nur ein modularer Software-Ansatz, auch composable genannt, kann das Bedürfnis nach Skalierbarkeit und Schnelligkeit erfüllen.
1. Was ist Composability?
Composability beschränkt sich nicht auf die technologischen Anpassungen einer Ist-Situation, sondern steht für ein komplett neues Mindset mit Flexibilität und Skalierbarkeit als wichtigste Komponenten. Statt sich an eine starre Softwarestruktur zu binden, verfolgt der modulare Ansatz die Idee, dass sich jedes Unternehmen unabhängig von einem Lieferanten seine technologischen Tools so zusammenstellt, dass sie punktgenau seine Bedürfnisse erfüllen: etwa schnelle Produkteinführungen und nahtlose, kanalübergreifende Customer Journeys. Stellen IT und Marketing ihren digitalen Werkzeugkasten so zusammen, wie sie möchten, können sie sich schnell an neue Kundenwünsche anpassen.
2. Welche Vorteile bietet Composability für IT und Marketing?
Composability löst rigide IT-Strukturen auf und führt dazu, dass sich die Verantwortung für Anwendungen besser im Unternehmen verteilt. Möchte das Marketing-Team auf die wachsenden Bedürfnisse der Kundinnen und Kunden reagieren, kann es mit einer Composable-Plattform schnell und eigenständig seinen digitalen Footprint ausweiten. Es kann selbst entscheiden, welche Tools es seinem Werkzeugkasten hinzufügen möchte: von Erstellung und Versand von Newslettern bis zur Personalisierung der Customer Journey auf jedem Kanal. Diese neue Kompetenz und Entscheidungsfreiheit führt zu Innovationen und einem Wachstum, das monolithische Strukturen bisher ausbremsten, weil sie nicht dafür ausgelegt sind, mit anderen Systemen oder Plattformen zu interagieren. IT-Abteilungen müssen sich bei dem modularen Ansatz also nicht mehr der Roadmap eines übermächtigen Softwareherstellers beugen, sondern können ein eigenes technologisches Umfeld schaffen, um die Erwartungen der digitalen Welt zu erfüllen.
3. Welche Schritte führen zur Composability?
Der wichtigste Schritt zu einem composable Business ist das Einreißen von Silos. Ein Composability-Team muss aus Vertretern verschiedener Abteilungen bestehen, die zusammen an der Orchestrierung arbeiten und die Anwendungen auswählen. Neben Verantwortlichen aus der IT-Abteilung dürfen Expertinnen und Experten aus den Bereichen Marketing, Sales und Kundenservice auf keinen Fall fehlen; schließlich wissen sie am besten, was Kunden sich wünschen und welche Daten zu besseren und personalisierten Customer Journeys führen.
Technologische Basis ist ein MACH-Ansatz, bestehend aus Microservices, API-first, Cloud-native und Headless. Im ersten Schritt müssen Unternehmen das Backend vom Frontend entkoppeln – also headless werden. Wenn beides unabhängig voneinander funktioniert, kann das Team mit der individuellen Zusammenstellung von ergänzenden Technologien wie APIs und SaaS-Lösungen beginnen. Dennoch ist beim Einkaufsbummel Vorsicht geboten, damit sich die Tools letztlich optimal ergänzen. Abschließender Schritt ist das Zusammenfügen der Anwendungen in eine composable Digital Experience Plattform (cDXP) mit einheitlicher Benutzeroberfläche, die eine nahtlose Employee aber auch Customer Experience ermöglicht.
Die Cloud-Technologie etablierte sich in den letzten Jahren als zentraler Bestandteil der digitalen Transformation im Kundenservice. Die neue globale Studie „The State of Customer Experience“ von Genesys, für die 650 CX-Entscheider weltweit befragt wurden, zeigt, dass etwa die Hälfte der Customer Experience Management-Technologien derzeit über All-Cloud-Plattformen und -Lösungen oder in hybriden Cloud-/On-Premise-Modellen bereitgestellt werden. Wenn Unternehmen in der Lage sind, das Beste aus ihren Daten herauszuholen, steht dem Ziel, das Kundenerlebnis von Anfang bis Ende zu revolutionieren, nichts mehr im Wege. Das hat das C-Level-Management bereits erkannt. Es weiß mittlerweile, dass Innovationen rund um die Customer Journeys am besten in der Cloud umgesetzt werden. Entscheidet sich die Unternehmensführung für eine einzige cloudbasierte Plattform, könnte nahtlos ein Kommunikationsnetz gebaut werden, das nicht nur gegenwärtigen Anforderungen gerecht wird, sondern auch in die Zukunft weist.
Eine solche Entscheidung hat allerdings auch Konsequenzen für die IT-Abteilung, wo sich die Mitarbeiter auf einige Veränderungen umgewöhnen müssen.
Ein neues Zeitalter für die IT-Teams
Wo früher die Bereitstellung von Hardware und Software im Fokus stand, müssen sie heute als Innovationsmotor agieren. Die Cloud erlaubt es Unternehmen, aus einem breiten Angebot an Services ihr individuelles Ökosystem aufzubauen. Damit können die IT-Abteilungen Lösungen, die sich überlebt haben, stilllegen und so mögliche technische Rückstände reduzieren sowie mit neuen Ideen Customer Journeys vereinheitlichen.
Dreh- und Angelpunkt des Kundenerlebnisses bleibt das Service-Center. Funktionieren die Abläufe dort reibungslos, sind die Kunden zufrieden. Bei einem Londoner Contact Center stellte die Unternehmensführung zum Beispiel fest, dass sich nach der Migration in die Cloud die Warteschlangen um bis zu 90 Prozent verkürzten, gleichzeitig beschleunigten sich die Kampagnenabschlüsse. Für ein Ergebnis wie dieses spielt die Vereinheitlichung der Customer Journeys eine entscheidende Rolle. Dem IT-Team kommt hierbei die Aufgabe zu, zum firmeneigenen Ökosystem passende Dienste und Lösungen zu finden. Hat es einen erfahrenen Partner an seiner Seite, kann es eine fundierte Auswahl treffen.
Balancieren zwischen Kontrolle und Effizienz
Denn die Migration in die Cloud erfordert ein hohes Maß an Vertrauen in den jeweiligen Service-Partner. Unternehmen geben damit die Kontrolle über Bereiche ab, die sie zuvor selbst verwaltet haben. Manche IT-Fachleute sehen diese Entwicklung skeptisch, da sie Bedenken hinsichtlich der Sicherheit, des Datenschutzes und der Kontrolle über die IT-Infrastruktur haben. Sie befürchten, dass sensible Daten und Anwendungen nun außerhalb des eigenen Firmennetzwerks liegen, oder haben Angst, dass sie bei Problemen oder Störungen nicht mehr unmittelbar eingreifen können. Diese Vorbehalte stehen und fallen mit der Wahl des Cloud-Partners.
Ist die Entscheidung für den richtigen Cloud-Dienst einmal gefallen, überwiegen für die IT-Teams die Vorteile. Sie sind plötzlich von Verantwortungen befreit, die zuvor notwendig waren, aber IT-Innovationen im Unternehmen behindert haben.
1. Single Points of Failure reduzieren sich:
In einer On-Premises-Umgebung kann ein einzelnes Hardware- oder Softwareproblem zu einem Komplettausfall des Systems führen. Die Cloud verteilt die Infrastruktur und Anwendungen über mehrere physische Standorte und Rechenzentren, wodurch sich das Risiko eines solchen Ausfalls minimiert. Im Falle eines Problems kann der Cloud-Service-Provider automatisch auf redundante Ressourcen zurückgreifen und so die Service-Verfügbarkeit aufrechterhalten.
2. Updates ohne "Handarbeit":
Durch die kontinuierliche Implementierung neuer Funktionen in der Cloud bleibt das Unternehmen auf dem neuesten Stand der Kommunikationstechnik. Automatische und regelmäßige Updates und Patches für Software und Systeme entlasten die IT-Abteilungen, da sie sich nicht mehr um zeitaufwändige und komplizierte Updates und deren Anpassung an die verschiedenen Systeme kümmern müssen. Unternehmen profitieren außerdem von stets aktuellen Sicherheitsmerkmalen und neuen Funktionalitäten, die zur Verbesserung von Leistung und Effizienz beitragen können.
3. Kontrolle über die Geschwindigkeit der Änderungen:
Updates werden laufend ausgerollt, aber die richtigen Partner können ihren Kunden die Kontrolle darüber überlassen, wann sie Änderungen in ihrer Organisation einführen möchten. Ein Sicherheits-Patch oder etwas Kritisches ist etwas anderes – aber Updates sind sehr vielfältig: von neuen Funktionen bis hin zu Fehlerbehebungen und Aktualisierungen der Benutzeroberfläche. Manche Unternehmen entscheiden sich zum Beispiel dafür, die neue Benutzeroberfläche langsamer einzuführen, um den Arbeitsfluss ihrer Mitarbeiter nicht unerwartet zu unterbrechen. Sie wollen sicherstellen, dass jeder über die Systemänderungen informiert ist, damit die Arbeit nicht behindert oder verlangsamt wird.
Der Schritt in die Cloud zahlt sich aus
Tatsächlich erweist sich die Migration in die Cloud als lohnenswertes Unterfangen für Firmen und deren IT-Abteilungen. Durch den Einsatz von Cloud-Technologien können Unternehmen effizienter auf ihre Kundenbedürfnisse eingehen. IT-Teams nutzen ihre Zeit- und Budget-Ressourcen besser, indem sie sich auf innovative Projekte konzentrieren und gleichzeitig die Belastung durch zeitaufwändige Wartungsaufgaben reduzieren. Arbeiten sie mit einem erfahrenen Service-Partner zusammen, lassen sich Bedenken bezüglich Sicherheit und Datenschutz zerstreuen. Laut dem aktuellen State of CX Report sind die wichtigsten Vorteile des Einsatzes von Cloud-basierten CX-Technologien vor allem ein verbesserter kanalübergreifender Datenzugriff (50 Prozent), die Möglichkeit, Prozesse durch neue Funktionen und Möglichkeiten zu beschleunigen (49 Prozent) und eine erhöhte Cybersicherheit (45 Prozent). All dies sind Schritte, um in der schnelllebigen digitalen Welt agil und wettbewerbsfähig zu bleiben.
Am Sonntag, dem 9. Juni 2024, findet in Deutschland die Europawahl statt. Vor diesem Hintergrund hat eco – Verband der Internetwirtschaft e.V. im Vorfeld die Wahlprogramme der CDU/CSU, SPD, Bündnis 90/Die Grünen und FDP hinsichtlich der dort enthaltenen digitalpolitischen Schwerpunkte und Vorhaben der Parteien analysiert.
Digitale Topthemen in den Wahlprogrammen: Wettbewerb, Daten und KI im Fokus
Digitale Topthemen wie Wettbewerb, Daten und KI finden sich in allen untersuchten Wahlprogrammen, wenngleich mit teils unterschiedlichen Schwerpunkten. Die Union betont beispielsweise die ethische Nutzung von KI, während die Grünen auf Transparenz setzen. Alle Parteien äußern sich zum Wettbewerb, von der FDP, die hier eine Digital-Freihandelszone fordert, bis zur SPD, die eher auf arbeitsrechtliche Regulierung setzt. Obwohl die Haltungen gegenüber dem Thema Datenschutz und -nutzung in den jeweiligen Parteien auseinandergehen, erkennen alle im Grundsatz die Datenschutzgrundverordnung und ihre Prinzipien an.
Politische Zurückhaltung beim Ausbau digitaler Infrastrukturen gefährdet Digitalstandort Deutschland
Erstaunlich wenig Beachtung findet hingegen das Thema Stärkung und Ausbau digitaler Infrastrukturen in den Wahlprogrammen der Parteien. Zwar betonen alle, die Digitalisierung vorantreiben zu wollen, doch bleiben konkrete Maßnahmen, die über die Sicherung der Netzneutralität hinaus gehen, zumeist aus.
eco Vorstandsvorsitzender Oliver Süme hält dies für ein alarmierendes Zeichen: „Digitale Infrastrukturen sind die Basis der digitalen Souveränität Europas und Fundament für die digitale Transformation von Wirtschaft und Gesellschaft. Die Stärkung und Weiterentwicklung eines leistungsfähigen und sicheren Ökosystems digitaler Infrastrukturen, bestehend aus Rechenzentren, gut ausgebauten Gigabitnetzen und sicheren Cloud-Infrastrukturen ist essenziell für die Zukunftsfähigkeit des Digitalstandorts Europa und sollte daher ganz oben auf der digitalpolitischen Agenda aller Parteien stehen, wenn es um die Ziele für die kommende Legislaturperiode geht.”
Es sei besorgniserregend, dass die Bedeutung digitaler Infrastrukturen, insbesondere auch im Zusammenhang mit hochperformanten Zukunftstechnologien, beispielsweise auf Basis künstlicher Intelligenz, von der Politik nach wie vor unterschätzt werde. „Diese Vernachlässigung gefährdet die Wettbewerbsfähigkeit ganz Europas“, so Süme.
eco Umfrage zeigt hohe Relevanz digitalpolitischer Themen für Wähler:innen
Eine aktuelle repräsentative eco-Umfrage zeigt bereits vor der Wahl die entscheidende Rolle der Digitalpolitik für deutsche Wähler:innen. Besonders in den Altersgruppen der 18-29-Jährigen (28,0%), der 30-39-Jährigen (28,8%) und der 40-49-Jährigen (28,9%) zeigt sich eine hohe Relevanz der geplanten Digitalpolitik einer Partei auf die Wahlentscheidung. Insbesondere Wählerinnen und Wähler der Grünen (43,2%), der FDP (37,1%) und der Linken (36,4%) betonen die Bedeutung dieses Themas.*
Den gesamten Wahlprogramm-Check, Kernforderungen sowie Stimmen der Internetwirtschaft zu dieser EU-Wahl und weitere Fakten finden Sie unter der eco Kampagne EU-Wahl digital 24.
*Das Meinungsforschungsinstitut Civey hat im Auftrag von eco rund 2.500 Menschen in Deutschland über 18 Jahre vom 18.03.2024 bis 19.03.2024 befragt. Der statistische Fehler der Gesamtergebnisse liegt bei 3,3%-3,9%.
*Der Wahlprogramm-Check bezieht eine Auswahl von Parteien ein, eine detaillierte Begründung finden Sie im Hintergrundpapier. Die Betrachtung der AfD findet bei eco nicht statt, da deren Ziele und Vorstellungen mit den Grundwerden von eco nicht vereinbar sind.
Die USA bleiben im Technologiesektor führend, obwohl China bereits seit 2019 mehr Patent Cooperation Treaty (PCT) Patente anmeldet. Chinas Fokus auf möglichst viele Patentanmeldungen hat jedoch nicht zu Erfindungen mit großer globaler Wirkung geführt. Zudem ist China stärker von Technologien aus anderen Regionen abhängig. China wird somit den USA die Technologieführerschaft nicht abnehmen, das zeigt eine Studie des ZEW Mannheim und der Goethe Universität Frankfurt gemeinsam mit der IÉSEG School of Management Paris zur technologischen Souveränität von Europa, den USA, China, Japan und Korea anhand von Daten aus dem System des PCT.
„Die aktuellen globalen Ereignisse sind eine Herausforderung für China. Das Land hat zwar bei Anzahl und Einfluss von Erfindungen große Fortschritte gemacht, ist aber immer noch abhängig von anderen Regionen und Akteuren“, sagt Prof. Dr. Philipp Böing, Wissenschaftler im ZEW-Forschungsbereich „Innovationsökonomik und Unternehmensdynamik“. „Für Europa ist es innovationspolitisch erstrebenswert, mit führenden Technologienationen wie den USA, Japan und Korea zu kooperieren und dennoch Abhängigkeiten zu reduzieren. Dabei sollte die Politik sich auf die Förderung von Schlüsseltechnologien konzentrieren, in diesen Bereichen hat sich Europa bereits Vorteile erarbeitet. Gleichzeitig sollte eine zukünftige Abhängigkeit Europas von chinesischen Innovationen vermieden werden“.
Patentanmeldungen nach Regionen
Die ZEW-Studie untersucht im Zeitraum über die Jahre 2000 bis 2020 die Zahl der Patenanmeldungen im PCT-System, das von der Weltorganisation für geistiges Eigentum der Vereinten Nationen verwaltet wird und ermöglicht, geistiges Eigentum in bis zu 157 Ländern gleichzeitig zu schützen. Die Nutzung des PCT-Systems hat erheblich zugenommen, von 97.414 Anmeldungen im Jahr 2000 auf 254.008 Anmeldungen im Jahr 2020. Dieses Wachstum wird in hohem Maße von ostasiatischen Ländern beeinflusst, wobei China seit 2019 an der Spitze der PCT-Anmeldeländer steht. Dabei wird die Verlagerung der Innovationstätigkeit vom Westen nach Ostasien deutlich: Während im Jahr 2000 noch mehr als drei Viertel der PCT-Anmeldungen aus den USA und Europa stammten, nahm die westliche Dominanz in den folgenden zwei Jahrzehnten allmählich ab. Im Jahr 2020 stammten mehr als die Hälfte der weltweiten PCT-Anmeldungen aus China, Japan und Korea.
Einfluss der Erfindungen unterschiedlich
Der Anstieg des Patentaufkommens ist jedoch nur eine Seite der Medaille, während der tatsächliche Einfluss von Erfindungen nicht leicht zu beobachten ist. In der Studie haben die Wissenschaftler/innen ein Maß entwickelt, das Zitationen der Patente aus internationalen Suchanfragen (International Search Report, ISR) während PCT-Anmeldungen in den Jahren 2000 bis 2017 verwendet. Im Ergebnis zeigt sich, dass Patente aus den USA häufiger und Patente aus China seltener zitiert werden. Japanische und koreanische Patente werden dagegen anfangs etwas stärker zitiert als die europäischen, verlieren jedoch im Laufe der Zeit an Bedeutung. US-Patente erhalten nicht nur mehr ISR-Zitationen, sondern haben auch in allen geografischen und technologischen Bereichen einen stärkeren Einfluss. „Obwohl China seinen bilateralen Einfluss in den 2010er Jahren verbessert hat, ist sein jüngster Wachstumstrend ähnlich wie von den USA und Europa, wenn auch auf niedrigerem Niveau. Unsere Ergebnisse deuten also nicht darauf hin, dass China im Begriff ist, die USA zu überholen“, ergänzt Ko-Autorin ZEW Research Associate Prof. Dr. Elisabeth Müller von der IÉSEG School of Management Paris.
2023 stand ganz im Zeichen von ChatGPT. Der KI-Hype wird sich auch 2024 fortsetzen und bringt für Entwicklungsunternehmen sowohl neue Chancen als auch Herausforderungen. Welche Trends sich für das kommende Jahr im Software Testing abzeichnen, erklärt Viktoria Praschl, VP Sales Central Europe bei Tricentis.
1. Anforderungen an das Testing von KI-Modellen steigen
Mit ChatGPT hat sich generative KI breitflächig durchgesetzt. Aber das Potenzial der neuen Technologie ist noch lange nicht ausgeschöpft. 2024 werden sich sowohl generative KI als auch allgemeine KI-Modelle weiterentwickeln. Gleichzeitig macht auch die Regulierung Fortschritte. Auf dem AI Saftey Summit im November vereinbarten die teilnehmenden Länder, künftige KI-Modelle einiger der weltweit größten Technologieunternehmen vor ihrer Veröffentlichung zu testen. 2024 soll außerdem der EU AI Act in Kraft treten. Unternehmen werden daher neue Tools und Technologien einführen, um Risiken von KI-Systemen zu bewerten, Compliance-Vorgaben einzuhalten und trotzdem Innovationen voranzutreiben.
2. KI-gestützte Test-Automatisierung ist auf dem Vormarsch
2024 bleibt die wirtschaftliche Lage angespannt. Unternehmen müssen gut mit ihren Budgets haushalten, trotzdem aber wachsende Kunden-Anforderungen erfüllen und ihre Release-Geschwindigkeit steigern. Sie können es sich nicht mehr leisten, unnötig Zeit und Ressourcen mit manuellen Aufgaben zu verschwenden. Testautomatisierung wird daher unverzichtbar. Immer mehr Unternehmen nutzen dabei das Potenzial von KI. Die neue Technologie kann zum Beispiel beim Test-Case-Design unterstützen, die Fehlersuche erleichtern und oder UI-Tests automatisieren, indem sie menschliches Nutzerverhalten simuliert. Richtig trainiert kann generative KI sogar selbst Test Cases schreiben. Mitarbeitende müssen allerdings lernen, die KI so anzuleiten, dass sie die gewünschten Ergebnisse liefert.
Immer mehr Unternehmen integrieren generative KI in ihre Produkte und Services. Das wirft auch die Frage auf, wie man solche Anwendungen testet. Da sich selbstlernende Systeme kontinuierlich verändern, kann es passieren, dass sie im Laufe der Zeit abdriften und anders reagieren als erwartet. Um Fehlverhalten zu erkennen, brauchen Unternehmen eine neue Testing-Strategie, die eher einem kontinuierlichen Monitoring gleicht. Außerdem sollten sie in einer simulierten Umgebung prüfen, welche Auswirkungen Veränderungen der KI auf kritische Prozesse haben.
4. Tests zur Datenintegrität gewinnen an Bedeutung
Experten prognostizieren, dass sich das Datenvolumen im nächsten Jahr verdoppeln wird. Umso wichtiger wird es für Unternehmen, diese Flut effizient zu meistern und die Datenintegrität sicherzustellen. Sie müssen in der Lage sein, schnell hochqualitative Daten für die täglichen Prozesse und Geschäftsentscheidungen bereitzustellen. Der Trend geht daher zu herstellerunabhängigen Datenintegritätslösungen, die es ermöglichen, die gesamten Datenströme in der IT-Landschaft zu testen. Dabei spielen KI-Unterstützung und Automatisierung eine wichtige Rolle, um die geforderte Geschwindigkeit zu erzielen, die Mitarbeitenden zu entlasten und das Risiko für Fehler zu minimieren.
5. Der Einsatz von Low-Code/No-Code Tools nimmt weiter zu
Der Fachkräftemangel wird sich noch verschärfen. In den kommenden Jahren müssen Unternehmen weiterhin versuchen, mit knapp besetzten Teams mehr zu erreichen. Low-Code-Tools erweisen sich als wertvolle Hilfe, um die verfügbaren Ressourcen optimal einzusetzen. Sie ermöglichen es, ohne Programmierkenntnisse Tests zu designen, zu managen und durchzuführen. So können auch weniger technisch versierte Mitarbeiter bei der Qualitätssicherung unterstützen, während erfahrene Entwickler mehr Zeit für strategische Aufgaben gewinnen. 71 Prozent der IT-Entscheider in Deutschland, Österreich und der Schweiz gehen davon aus, dass der Einsatz von Low-Code/No-Code in den nächsten drei Jahren zunehmen wird, so eine KPMG-Studie.
6. Quality Engineering wird stärker in den Software-Lebenszyklus integriert
Unternehmen sind heute mit einem volatilen Umfeld konfrontiert, in dem sich Kunden- und Marktanforderungen ständig ändern. Sie müssen in der Lage sein, schnell zu reagieren, dürfen dabei aber keine Kompromisse bei der Qualität machen. Daher wird es immer wichtiger, Quality Engineering in alle Phasen des Software-Lebenszyklus zu integrieren. 2024 werden Unternehmen verstärkt eine ganzheitliche Strategie zur Qualitätssicherung verfolgen. Mit KI-gestützter Testautomatisierung und einem Low-Code/No-Code-Ansatz lässt sich das effizient umsetzen.
7. Der Mobile-Trend setzt sich fort
Fast 59 Prozent des Online-Traffics erfolgt heute bereits über mobile Endgeräte. Künftig wird der Anteil weiter steigen. Mobile Anwendungen bereitzustellen, wird daher entscheidend für den Geschäftserfolg. Die Nutzererwartungen sind hoch: Unternehmen müssen dafür sorgen, dass ihre Apps performant mit verschiedenen Endgeräten und Browsern funktionieren. Dafür benötigen sie eine Strategie, um ihre Software schnell und einfach in vielen verschiedenen Szenarien zu testen – sowohl mit physischen als auch virtuellen Smartphones und Tablets.
Fazit
Neben dem KI-Hype sind Entwicklungsunternehmen 2024 weiterhin mit alt bekannten Herausforderungen konfrontiert: Sie müssen trotz Fachkräftemangel und knappen Budgets immer schnellere Release-Zyklen meistern und wachsende Qualitätsanforderungen erfüllen. Viktoria Praschl, VP Sales Central Europe bei Tricentis, fasst zusammen: „Unternehmen sollten alle Möglichkeiten ausschöpfen, um Quality Engineering agil, effizient und ganzheitlich zu gestalten. Dazu gehört Testautomatisierung ebenso wie der Einsatz von KI und Low-Code/No-Code. Künstliche Intelligenz kann im Software Testing heute schon wertvolle Unterstützung leisten. Hier wird sich in den kommenden Jahren noch viel tun. Andererseits erfordern KI-Anwendungen selbst eine neue Testing-Strategie.“
Insignio GmbH, eine der führenden Agenturgruppen für Change-Projekte und gleichzeitig stärkster SugarCRM-Partner im deutschsprachigem Raum, eröffnet in Zürich eine neue Dependance. Dieser Schritt ist die logische Konsequenz der erfolgreichen Geschäftsentwicklung in der DACH Region.
„Mit dem neuen Standort sind wir noch näher an unseren Kunden dran und können optimal auf ihre Bedürfnisse eingehen", beschreibt Jan Müller, Gründer und Geschäftsführer der Insignio Gruppe diese Entscheidung. Neben der Projektarbeit setzen insbesondere die Geschäftsbereiche CRM und Digital den Fokus auf die Neugewinnung von Kunden in der Schweiz. „Ein weitreichender Service mit schnellen Reaktionszeiten ist bei Projekten in der digitalen Transformation von Vorteil, was wir längst hundertprozentig gewährleisten können. Hinzu kommt, dass wir auch das Neugeschäft jetzt verstärkt ausbauen können“, erklärt der Unternehmenschef.
Erfolgreichstes Jahr seit Unternehmensgründung
Im 15. Unternehmensjahr freut sich Insignio über das erfolgreichste Jahr seit der Firmengründung: Neue Kunden wie beispielsweise Sparkasse Kreditpartner, Winora und Audi sorgten in den letzten Monaten für einen signifikanten Wachstumsschub. Insignio beschäftigt derzeit 75 feste Mitarbeiter, Tendenz steigend.
In einzigartiger Weise kombiniert das Unternehmen das methodische, technische Know-how seiner IT-Experten mit der kreativen, emotionalen Kraft der Marketing-Kommunikation.
Ab Ende Dezember in Zürich
Zürich ist die erste Niederlassung in der Schweiz. Die neuen Räumlichkeiten befinden sich in zentraler Lage im Zentrum der Stadt. Über Deutschland hat das Unternehmen seine Standorte strategisch verteilt, mit Hauptsitz zentral in Kassel, im Norden in Hamburg sowie im Süden in München.
In dem südlichen Bereich der DACH Region unterstützt die Insignio Kunden aus verschiedenen Branchen; darunter Finanzdienstleistung, IT, Fertigung und Dokumentenmanagement.
Über die Insignio CRM GmbH
Die Insignio CRM GmbH mit Headquarter in Kassel verbindet für seine Kunden seit 12 Jahren Marketing-, Vertriebs- und Service-Know-how mit dem Ziel, Unternehmen bei der Optimierung des Kundenmanagements strategisch und beratend zu unterstützen. Die technische Realisierung erfolgt mit Software des Unternehmens SugarCRM Inc. Viele hieraus hervorgegangene Kundeprojekte sind preisgekrönt. Als Elitepartner zählt Insignio CRM zu den größten und leistungsstärksten Vertretern von SugarCRM in Europa. Weitere Standorte von Insignio befinden sich in Hamburg, München und. Mehr Informationen unter www.insignio-crm.de / www.sugarcrm.com.