Ich hatte das Privileg, den von TechEx organisierten KI- und Big-Data-Gipfel zu leiten, der auf großes Interesse bei Fachleuten und Enthusiasten stieß, die sich über die neuesten KI- und LLM-Entwicklungen informieren wollten. Außerdem habe ich am Productcamp Europe teilgenommen, das von Epam Systems und Emakina veranstaltet wurde. Dieses Treffen bot eine hervorragende Plattform für Diskussionen über verschiedene Themen im Zusammenhang mit Daten, KI und maschinellem Lernen, jedoch aus der Produktperspektive. Die vollständigen Aufzeichnungen der TechEx finden Sie unter hier.
Das Zusammenspiel von Data Science und Geschäftsstrategie: Ein Blick auf die TechEx-Konferenz Applied Digital, Data & AI
Konferenz für angewandte Digitaltechnik, Daten und KI
Die Teilnehmer, eine Mischung aus Branchenführern, Datenwissenschaftlern und Neugierigen, waren aus einem einzigen Grund da: um sich mit der Zukunft von Applied Digital, Daten und künstlicher Intelligenz zu beschäftigen. Als General Partner bei Allegory Capital hatte ich das Privileg, die Konferenz zu eröffnen und die Bühne für einen Tag mit reichhaltigen Diskussionen und bahnbrechenden Enthüllungen zu bereiten.
Das erste Thema, das die Aufmerksamkeit aller Anwesenden auf sich zog, war die Präsentation von Sanchit Juneja, dem Director of Product on Data Science and Machine Learning bei Booking.com. Sanchits Vortrag über Large Language Models (LLMs) war erhellend. Er betonte, wie Booking.com bereits LLMs in seine Arbeitsabläufe integriert hat und dabei ist, diese Initiativen zu skalieren. Die Fähigkeit des Unternehmens, täglich enorme Datenmengen zu verarbeiten, war ein Beweis für die Effizienz dieser Modelle. Diese Enthüllung ist ein technologischer Meilenstein und ein Vorbote dessen, was noch auf verschiedene Branchen zukommen wird. Die Integration und Skalierung von LLMs ist nicht mehr nur auf Tech-Giganten oder rein digitale Akteure beschränkt. Auch traditionelle Branchen wie das Gesundheits- und Finanzwesen beginnen, das transformative Potenzial dieser Modelle zu erkennen. Die Herausforderung besteht jedoch darin, diese Initiativen über das Proof-of-Concept-Stadium hinaus zu skalieren - eine Hürde, die viele Branchen erst noch überwinden müssen. Zur Veranschaulichung erzählte Sanchit, wie Booking.com LLMs einsetzt, um das Kundenerlebnis zu verbessern. Die LLMs können durch die Analyse von Kundenrezensionen und -feedback personalisierte Reiseempfehlungen generieren und so die Kundenbindung und den Umsatz steigern. Diese praktische Anwendung ist ein überzeugendes Beispiel dafür, wie LLMs einen messbaren Wert über verschiedene Geschäftsfunktionen hinweg schaffen können.
Das Gespräch über Large Language Models ging natürlich in eine breitere Diskussion über die Zukunft des Einzelhandels und der Softwareentwicklung über, die von Peter Winkelman, Chief Enterprise Architect bei Carrefour, und Nuno Carneiro, AI Principal Product Manager bei OutSystems, geführt wurde. Ihre Keynote-Präsentation war ein tiefer Einblick in die KI-Vision von Carrefour und in die Art und Weise, wie das Unternehmen die Talentlücke im technischen Bereich schließen und gleichzeitig die Ziele der digitalen Transformation erreichen will. Die Strategie von Carrefour ist nicht nur eine Blaupause für den Einzelhandel, sondern auch ein Blickwinkel, durch den wir die Zukunft der KI in der Wirtschaft betrachten können. Das Unternehmen investiert massiv in KI, um Prozesse zu automatisieren, das Kundenerlebnis zu verbessern und sogar die Softwareentwicklung selbst zu verändern. Die Auswirkungen sind weitreichend. In dem Maße, in dem Unternehmen versuchen, die Talentlücke im technischen Bereich zu schließen, erweist sich KI als mächtiger Verbündeter, der Aufgaben automatisiert, die andernfalls umfangreiche menschliche Eingriffe erfordern würden. Peter und Nuno stellten auch eine Fallstudie vor, die die transformative Kraft der KI im Einzelhandel zeigt. Carrefour implementierte ein KI-gestütztes Bestandsverwaltungssystem, das die Abläufe rationalisierte und zu erheblichen Kosteneinsparungen führte. Diese reale Anwendung ist ein Beleg für das ungenutzte Potenzial von KI bei der Umgestaltung von Geschäftsabläufen und der Erreichung strategischer Ziele.
Auf der Konferenz ging es aber nicht nur darum, die Errungenschaften und das Potenzial von KI und Datenwissenschaft zu feiern, sondern auch darum, die ethischen und ökologischen Auswirkungen dieser Technologien zu diskutieren. Kristian Kofoed-Solheim, Business Development Director bei Bulk Data Centers, erörterte auf der Bühne, wie Unternehmen High-Performance Computing (HPC) und KI-Workloads nachhaltig verwalten können. Nachhaltigkeit im Kontext der Datenwissenschaft wird oft von der Verlockung des technologischen Fortschritts überschattet. Wie Kristian jedoch betonte, ist der ökologische Fußabdruck von Rechenzentren ein wachsendes Problem, das nicht ignoriert werden kann. Unternehmen stehen heute vor der Herausforderung, Skalierbarkeit und ökologische Verantwortung in Einklang zu bringen. Kristians Vortrag wurde durch ein Beispiel von Bulk Data Centers unterstrichen, das erneuerbare Energielösungen für die Stromversorgung seiner Rechenzentren eingeführt hat. Diese Initiative reduziert den CO2-Fußabdruck des Unternehmens und dient als Modell für andere Organisationen, die sich mit den Umweltauswirkungen ihrer Datenpraktiken auseinandersetzen.
Anschließend verlagerte sich der Schwerpunkt der Konferenz auf das Konzept der "Augmented Workforce", ein Begriff, der im Lexikon der Datenwissenschaft und des maschinellen Lernens stark an Bedeutung gewonnen hat. Die von Marloes Pomp, Koordinatorin des internationalen Netzwerks ELSA labs, moderierte Podiumsdiskussion befasste sich mit der raschen Einführung intelligenter Automatisierungslösungen, die Technologien wie Natural Language Processing (NLP) und Robotic Process Automation (RPA) nutzen. Die Integration von Algorithmen des maschinellen Lernens in die Belegschaft ist nicht nur eine technologische Entwicklung, sondern ein Paradigmenwechsel in der Konzeption von Arbeit und Produktivität. Die Diskussionsteilnehmer erörterten das Konzept des "Human-in-the-Loop" (HITL) maschinellen Lernens, bei dem menschliches Fachwissen die algorithmische Entscheidungsfindung ergänzt. Diese symbiotische Beziehung zwischen menschlicher Intelligenz und maschinellen Fähigkeiten stellt eine erweiterte Belegschaft dar. Rens van Dongen, Senior Information Security Officer bei den niederländischen Eisenbahnen, berichtete in einer interessanten Fallstudie über die Implementierung eines HITL-Systems für die Cybersicherheit. Durch den Einsatz von Algorithmen des maschinellen Lernens zur Filterung und Priorisierung von Sicherheitswarnungen konnten sich die menschlichen Experten auf komplexe Aufgaben konzentrieren, die ein differenziertes Verständnis erfordern, und so die Gesamteffizienz und -effektivität ihrer Sicherheitsoperationen verbessern.
Im weiteren Verlauf des Tages stand die Künstliche Intelligenz in der Wirtschaft im Mittelpunkt. Erbin Lim, Director of Engineering and Development bei Pfizer, ging auf die technischen Feinheiten des KI-Einsatzes ein. Er erörterte die Bedeutung des "Feature Engineering", des Prozesses der Auswahl der Variablen, die das maschinelle Lernmodell zur Erstellung von Vorhersagen verwenden wird. Er ging auch auf das "Hyperparameter-Tuning" ein, eine Technik, die zur Optimierung der Leistung von maschinellen Lernmodellen eingesetzt wird. Erbins Vortrag war ein Meisterkurs in den technischen Überlegungen, die die transformative Kraft der KI in der Wirtschaft untermauern. Er betonte die Notwendigkeit der Transparenz von Algorithmen und erörterte die Häufigkeit von Modellumschulungen, Metriken wie F1 Score und ROC-AUC sowie die Herausforderungen beim Umgang mit unausgewogenen Datensätzen. Um seine Ausführungen zu verdeutlichen, erzählte Erbin von der Implementierung eines vorausschauenden Wartungsmodells für die Produktionsanlagen von Pfizer. Ensemble-Methoden wie Random Forests und Gradient Boosting reduzierten die Ausfallzeiten der Anlagen erheblich und sparten Zeit und Ressourcen.
Anschließend befasste sich die Konferenz mit Datenethik und Governance, ein Thema, das im Zeitalter von Big Data und KI immer wichtiger wird. Joris Krijger, Spezialist für KI und Ethik bei de Volksbank, führte die Zuhörer durch die Komplexität der Operationalisierung ethischer KI. Er stellte das Konzept der "Differential Privacy" vor, eine Technik, die es Unternehmen ermöglicht, aggregierte Daten über die Gewohnheiten der Nutzer weiterzugeben und gleichzeitig die Privatsphäre des Einzelnen zu wahren. Die Auswirkungen von Differential Privacy sind tiefgreifend, insbesondere für Branchen, die mit sensiblen Daten umgehen, wie z. B. das Gesundheits- und Finanzwesen. Sie bietet einen Weg, die Möglichkeiten der Datenanalyse zu nutzen, ohne ethische Überlegungen zu vernachlässigen. Joris verwies auf die Erfahrungen der Volksbank mit der Implementierung von Differential Privacy in ihre Datenanalyse-Workflows, die die Realisierbarkeit dieses Mechanismus zur Wahrung der Privatsphäre demonstrieren.
Zum Abschluss der Konferenz verlagerte sich der Fokus auf die Zukunft von Analytik und KI in Unternehmen. Logan Havern, CEO von Datalogz, erörterte die Herausforderungen, denen sich datenintensive Unternehmen bei der Erstellung von Self-Service-Berichten gegenübersehen. Er stellte dem Publikum die "Data Lake Architecture" vor, eine skalierbare und flexible Datenspeicherlösung, die strukturierte und unstrukturierte Daten konsolidiert. Logan betonte die Rolle der "Data Governance" bei der Sicherstellung der Qualität und Zuverlässigkeit der in Data Lakes gespeicherten Daten. Er erörterte auch das Konzept der "Data Lineage", das die Verfolgung des Datenflusses und der Datenumwandlung auf dem Weg durch die verschiedenen Phasen einer Datenpipeline beinhaltet. Das Verständnis der Data Lineage ist entscheidend für die Gewährleistung der Datenintegrität und die Einhaltung von Vorschriften wie GDPR. Um die praktischen Anwendungen dieser Konzepte zu veranschaulichen, erzählte Logan, wie Datalogz eine Data Lake-Lösung implementierte, die Echtzeit-Analysen ermöglichte. Durch den Einsatz fortschrittlicher ETL-Prozesse (Extrahieren, Transformieren, Laden) und Stream Processing" konnten sie ihren Kunden verwertbare Erkenntnisse liefern und so datengestützte Entscheidungsprozesse fördern.
Optimierte Daten und Analysen: Die Zukunft entschlüsseln
Als Leonid Pavlov die Bühne betrat, war der Raum voller Erwartung. Pavlov, ein erfahrener Experte für Daten- und KI-Schulungen, gab den Ton für den Tag mit einer fesselnden Erzählung an, die die transformative Kraft von Daten und künstlicher Intelligenz unterstrich. Er sprach als Technologe und Visionär und zeichnete ein Bild von einer Welt, in der Daten nicht nur ein Nebenprodukt von Geschäftsabläufen sind, sondern das Lebenselixier, das Innovation und Wachstum vorantreibt. Nach Pavlovs Ansicht werden sich die Unternehmen in der Zukunft in zwei Kategorien aufteilen: diejenigen, die den strategischen Wert von Daten verstehen, und diejenigen, die zurückbleiben. Diese Zweiteilung ist keine bloße Hypothese, sondern eine Realität, die bereits Gestalt annimmt. Unternehmen wie Amazon und Google haben bei der Nutzung von Daten zur Entscheidungsfindung Pionierarbeit geleistet, und ihr Erfolg ist ein Beleg für die Stärke eines datengesteuerten Ansatzes. Für Unternehmen in regulierten Branchen steht sogar noch mehr auf dem Spiel. Daten sind nicht nur ein strategisches Gut, sondern auch eine Compliance-Anforderung. Die General Data Protection Regulation (GDPR) in Europa und der California Consumer Privacy Act (CCPA) in den Vereinigten Staaten sind nur die Spitze des Eisbergs. Künftige Vorschriften werden wahrscheinlich noch strenger sein, so dass das Datenmanagement zu einer entscheidenden Geschäftsfunktion wird.
Mahmoud Yassin, ein Senior Data Manager bei Booking.com, betrat die Bühne mit einem Gefühl der Dringlichkeit, das die Aufmerksamkeit des Publikums sofort auf sich zog. Er konzentrierte sich auf ein Thema, das zwar nicht so glamourös ist wie Algorithmen des maschinellen Lernens oder Datenvisualisierungstechniken, aber für jedes ernsthafte Datenprojekt von grundlegender Bedeutung ist: die Datenherkunft. Yassin führte zunächst in das Konzept der "Data Provenance" ein, ein Begriff, der sich auf den Ursprung eines Datensatzes und die nachfolgenden Umwandlungen bezieht. Dabei handelt es sich nicht nur um eine technische Übung, sondern um eine wichtige Geschäftsfunktion. In einer Welt, in der Daten zunehmend für wichtige Entscheidungen verwendet werden, ist die Möglichkeit, die Herkunft dieser Daten nachzuvollziehen, nicht nur ein "Nice-to-have", sondern ein "Must-have". Die Auswirkungen sind weitreichend. In regulierten Branchen wie dem Gesundheits- und Finanzwesen ist das Verständnis der Datenherkunft nicht nur von Vorteil, sondern gesetzlich vorgeschrieben.
Basil Faruqui, Director of Application and Workflow Orchestration bei BMC, betrat die Bühne. Faruqui ist ein bekannter Vordenker im Bereich DataOps, einem aufkeimenden Bereich, der darauf abzielt, die Strenge von DevOps auf die Welt der Datenanalyse zu übertragen. Sein Vortrag war ein tiefer Einblick in die Komplexität und die Herausforderungen von Unternehmen beim Übergang von der Datenerfassung zur Datennutzung - ein Prozess, der oft mit Fallstricken und Hindernissen behaftet ist. Faruqui begann damit, die nackte Realität darzulegen: Trotz der Milliarden von Dollar, die in Dateninitiativen investiert werden, schaffen es viele dieser Projekte nie in die Produktion. Unter Berufung auf Branchenschätzungen stellte er fest, dass nur etwa 15% der modernen Dateninitiativen erfolgreich in Betrieb genommen werden. Dies ist nicht nur ein Versagen der Technologie, sondern auch ein Versagen der Prozesse und letztlich der Vision. Für Faruqui liegt der Kern des Problems in der mangelnden Orchestrierung. Der Erfolg eines Orchesters in der Musik hängt von der Fähigkeit des Dirigenten ab, eine vielfältige Gruppe von Musikern zu koordinieren. In ähnlicher Weise hängt der Erfolg von der Orchestrierung komplexer Vorgänge ab, die mehrere Abteilungen, Technologien und sogar organisatorische Grenzen in der Welt der Daten umfassen.
Unter der Moderation von Pietro Bertazzi, Global Director of Policy Engagement and External Affairs bei CDP, versprach die Diskussion eine tiefgreifende Auseinandersetzung mit einem der drängendsten Themen in der Datenwelt zu werden: die Maximierung des Nutzens von Daten in einem Unternehmen. Die Diskussionsteilnehmer aus verschiedenen Branchen waren sich einig, dass Daten nicht nur ein technisches, sondern auch ein strategisches Gut sind. Ashraf Ali K M, Director of Data Science & Analytics bei Footlocker, betonte die Notwendigkeit einer ganzheitlichen Geschäftsstrategie, bei der Daten integraler Bestandteil der Wertschöpfungskette sind. Er argumentierte, dass Daten nicht auf isolierte Abteilungen beschränkt sein sollten, sondern frei durch die Geschäftsbereiche fließen sollten, um die Entscheidungsfindung und Innovation voranzutreiben. Dies ist nicht nur eine Frage der technischen Integration, sondern auch ein kultureller Wandel. Giuseppe Lenci, Spezialist für Business Intelligence bei Van Oord, wies darauf hin, dass das Aufbrechen von Datensilos eine Änderung der Denkweise erfordert. Unternehmen müssen von einer Kultur des Datenbesitzes zu einer Kultur der Datenverwaltung übergehen, in der Daten als gemeinsame Ressource betrachtet werden, von der alle Abteilungen profitieren können. Die Diskussionsteilnehmer befassten sich auch mit den praktischen Aspekten der Ausrichtung von Daten auf spezifische Geschäftsziele. Sie erörterten, wie wichtig es ist, saisonale Kaufzyklen, die Kundennachfrage und andere Marktdynamiken zu verstehen. Die Fähigkeit, Datenanalysen auf diese Faktoren abzustimmen, kann ein entscheidender Faktor sein, der es Unternehmen ermöglicht, Markttrends vorherzusehen und ihre Strategien entsprechend anzupassen. Was jedoch wirklich hervorstach, war der Fokus des Panels auf Echtzeitinformationen. In einer Welt, in der sich die Marktbedingungen innerhalb eines Wimpernschlags ändern können, ist die Fähigkeit, datengestützte Entscheidungen in Echtzeit zu treffen, nicht nur ein Vorteil, sondern eine Notwendigkeit. Dies gilt insbesondere für Unternehmen in regulierten Branchen, in denen die Kosten eines Versagens nicht nur finanzieller Natur sind, sondern auch rechtliche Auswirkungen und Rufschädigung umfassen können. Die Erkenntnisse des Panels waren ein klarer Aufruf an die Unternehmen, ihren Umgang mit Daten zu überdenken. Es reicht nicht aus, Daten zu sammeln; Unternehmen müssen auch über die Systeme, Prozesse und die Kultur verfügen, um dieses unschätzbare Gut optimal zu nutzen. Diejenigen, die dies tun, werden gut positioniert sein, um die Komplexität der sich schnell entwickelnden Geschäftslandschaft von heute zu bewältigen.
Ranade wies zunächst auf einen häufigen Fallstrick bei der Analyse hin: die Frage der Datenqualität. Er argumentierte, dass sich viele Unternehmen so sehr auf das Sammeln von Daten konzentrieren, dass sie die Bedeutung der Datenqualität übersehen. Eine schlechte Datenqualität untergräbt die Analysebemühungen und kann zu fehlgeleiteten Geschäftsentscheidungen führen. Dies ist besonders wichtig in regulierten Branchen, in denen die Datenintegrität nicht nur eine bewährte Praxis, sondern oft auch eine gesetzliche Vorschrift ist. Ranades Ansatz zur Lösung dieses Problems war jedoch alles andere als konventionell. Er führte das Konzept des "Multi-Horizont-Ansatzes" für die Analytik ein. Dieser Rahmen ermöglicht es Unternehmen, sinnvolle Schritte auf ihrem Weg zur Analyse zu unternehmen, ohne sich in Fragen der Datenqualität zu verzetteln. Die Idee ist, klein anzufangen, aber groß zu denken, schrittweise Verbesserungen vorzunehmen und dabei die langfristigen Ziele im Auge zu behalten. Dieser Ansatz ist besonders für Unternehmen relevant, die sich in einem digitalen Transformationsprozess befinden. Organisationen, die von Altsystemen auf modernere Infrastrukturen umsteigen, sehen sich oft mit vielen Herausforderungen konfrontiert, von Problemen bei der Datenmigration bis hin zu kulturellen Widerständen.
Unter der Moderation von Bas Vertelman, einem Real-Time Big Data Software Engineer, versprach die Diskussion, sich mit einem der wichtigsten Aspekte der modernen Datenanalyse zu befassen: Echtzeit-Intelligenz. Jeltsin Neckebroek, Head of DTC eCommerce bei AB InBev, machte die Bühne frei, indem er die transformative Kraft von Echtzeitdaten hervorhob. In einer Zeit, in der sich die Vorlieben der Verbraucher über Nacht ändern können, ist die Fähigkeit, sich in Echtzeit anzupassen, nicht nur ein Wettbewerbsvorteil, sondern auch ein geschäftlicher Imperativ. Neckebroek erläuterte, wie AB InBev Echtzeit-Analysen einsetzt, um seine Lieferkette zu optimieren, die Preisgestaltung dynamisch anzupassen und das Verbraucherverhalten vorherzusagen. Dieses Maß an Agilität ist besonders in regulierten Branchen wichtig, wo Verzögerungen zu Umsatzeinbußen und Problemen bei der Einhaltung von Vorschriften führen können. Tarun Rana, Head of Data and Analytics bei Henkel, ging noch einen Schritt weiter und erörterte die Herausforderungen, die durch Altsysteme entstehen. Viele Unternehmen werden durch veraltete Infrastrukturen behindert, die nicht für die Verarbeitung von Echtzeitdaten geeignet sind. Rana betonte die Notwendigkeit einer robusten Datenarchitektur, um die hohe Geschwindigkeit, das Volumen und die Vielfalt von Echtzeitdaten zu unterstützen. Er stellte den Zuhörern das Konzept von "DataOps" vor, eine Reihe von Praktiken und Tools, die einen agilen Datenbetrieb ermöglichen und sich an den Grundsätzen von DevOps in der Welt der Softwareentwicklung orientieren. Die Diskussionsteilnehmer waren jedoch einhellig der Meinung, dass Technologie allein nicht die Lösung ist. Natasha Govender-Ropert, Senior Global Data Science Manager bei ING, sprach wortgewandt über das menschliche Element. Sie argumentierte, dass Echtzeit-Intelligenz nicht nur eine Frage der richtigen Technologie ist, sondern auch der richtigen Menschen und Prozesse. Dazu gehört, dass die Mitarbeiter geschult werden, in Echtzeit zu denken und auf der Grundlage der Daten schnell und sicher Entscheidungen zu treffen.
Timea Töltszéki, Leiterin des Bereichs Daten und Plattformen bei Boehringer Ingelheim, lieferte ein überzeugendes Beispiel aus dem Gesundheitssektor. Sie erläuterte, wie Echtzeit-Analysen die Patientenversorgung revolutionieren und Ärzte in die Lage versetzen, lebensrettende Entscheidungen auf der Grundlage von Echtzeitdaten zu treffen. Dies ist ein anschauliches Beispiel für die übergreifende Botschaft des Panels: dass Echtzeit-Intelligenz das Potenzial hat, nicht nur Unternehmen zu verändern, sondern auch Leben zu verbessern.
Die Erkenntnisse des Panels waren ein Weckruf für Unternehmen, sich das "Jetzt" zu eigen zu machen. In einer zunehmend unbeständigen, unsicheren, komplexen und mehrdeutigen Welt ist die Fähigkeit, in Echtzeit zu reagieren, nicht nur ein Nice-to-have, sondern ein Must-have. Diejenigen, die diese Fähigkeit beherrschen, werden gut aufgestellt sein, um in der schnelllebigen Welt von morgen erfolgreich zu sein.
Rowan van Dongen, Berater für Fertigungsanalytik bei AVEVA Select Benelux, erörterte auf der Bühne ein Thema, über das viel diskutiert, aber wenig gehandelt wurde: die Nutzung der Cloud-Technologie für eine nachhaltige Optimierung in der Fertigung. Die Cloud wurde lange Zeit als Werkzeug zur Datenspeicherung und Rechenleistung betrachtet, doch Rowan stellte sie als weitaus strategischeres Instrument dar. Er argumentierte, dass die Cloud nicht nur ein technologisches Werkzeug ist, sondern ein strategischer Wegbereiter, insbesondere in Sektoren wie der Pharmazie, wo viel auf dem Spiel steht und das regulatorische Umfeld sehr streng ist. Rowans Diskussion war kein bloßer Überblick, sondern ein tiefes Eintauchen in die Ökonomie eines verantwortungsvollen Geschäfts. Er führte reale Beispiele aus dem Fertigungssektor an, wo Cloud-gestützte Analysen zu einer Senkung der Energiekosten um 20% geführt haben. Hier geht es nicht nur um die soziale Verantwortung der Unternehmen, sondern auch um den Gewinn. Rowans Einblicke waren sowohl zeitgemäß als auch zeitlos in Branchen, in denen jeder Prozentpunkt an betrieblicher Effizienz zu erheblichen finanziellen Gewinnen führen kann. Wie Rowan betonte, kann die Cloud der Dreh- und Angelpunkt in einer auf nachhaltiges Wachstum ausgerichteten Strategie sein. Seine Erkenntnisse waren ein klarer Aufruf an die Industrie, ihre digitale Strategie neu zu bewerten, und zwar nicht als isolierte IT-Initiative, sondern als Kernbestandteil ihres Geschäftsmodells. Er argumentierte, dass die Cloud der Schlüssel zu einem neuen Maß an Effizienz und Nachhaltigkeit sein könnte, insbesondere in regulierten Branchen, in denen Einhaltung von Vorschriften und Leistung oft als Gegensätze angesehen werden. Rowans Erkenntnisse waren besonders für Unternehmen an der Schnittstelle zwischen Technologie und Regulierung relevant. Er zeigte auf, wie die Cloud-Technologie genutzt werden kann, um gesetzliche Anforderungen zu erfüllen und zu übertreffen und so ein potenzielles Hindernis in einen Wettbewerbsvorteil zu verwandeln. Dies ist vor allem in Branchen wie der Pharma- und Gesundheitsbranche von entscheidender Bedeutung, wo die Einhaltung von Vorschriften nicht verhandelbar ist und die Kosten eines Versagens astronomisch hoch sind. In einer Welt, in der Nachhaltigkeit nicht mehr nur ein Schlagwort, sondern eine geschäftliche Notwendigkeit ist, bot Rowans Präsentation einen Fahrplan für Unternehmen, die die Komplexität der modernen Fertigung meistern wollen. Seine Diskussion war eine Meisterklasse darin, die Cloud-Technologie nicht als IT-Ausgabe, sondern als strategische Investition zu betrachten, die sich in Form von betrieblicher Effizienz, Unternehmensreputation und Kundenvertrauen auszahlen kann. Rowans Vortrag war ein Wendepunkt in der Art und Weise, wie wir über die Rolle der Technologie in nachhaltigen Geschäftspraktiken denken. Er war ein Aufruf zum Handeln für alle Beteiligten, von den Führungskräften bis hin zu den Mitarbeitern an der Basis, ihre Herangehensweise an Technologie, Nachhaltigkeit und das komplizierte Geflecht von Vorschriften, das moderne Industrien regelt, zu überdenken. Seine Einsichten waren nicht nur ein Kommentar zum Zustand der Fertigung, sondern ein Entwurf für die Zukunft, in der Technologie und Nachhaltigkeit in einer nahtlosen, fast symbiotischen Beziehung aufeinander abgestimmt und integriert sind.
Timea Töltszéki, Leiterin des Bereichs Daten und Plattformen bei Boehringer Ingelheim, sprach auf der Bühne ein Thema an, das viele beschäftigt, aber nur von wenigen angesprochen wird: die Monetarisierung von Daten. In einer Zeit, in der Daten oft als das "neue Öl" bezeichnet werden, boten Timeas Einsichten eine nuancierte Perspektive jenseits der üblichen Plattitüden. Sie ging auf die Komplexität des Verständnisses des tatsächlichen Werts von Daten ein, bevor man überhaupt versucht, ein Preisschild daran anzubringen. Dies ist ein wichtiger Aspekt, insbesondere für Unternehmen in regulierten Branchen, in denen Daten einen immanenten Wert haben und erhebliche Auswirkungen auf die Einhaltung von Vorschriften und ethische Aspekte haben. Timeas Präsentation war eine fesselnde Erzählung, die die technischen, strategischen und ethischen Dimensionen der Datenmonetarisierung miteinander verknüpfte. Sie führte das Beispiel eines kürzlich durchgeführten Projekts bei Boehringer Ingelheim an, bei dem die Datenmonetarisierungsstrategien zu einer Steigerung der betrieblichen Effizienz um 15% führten. Sie wies jedoch schnell darauf hin, dass es dabei nicht nur um finanzielle Gewinne geht, sondern um die Schaffung einer ganzheitlichen Geschäftsstrategie, bei der Daten ein integraler Bestandteil der Wertschöpfungskette sind. Dies ist vor allem für Unternehmen im pharmazeutischen Sektor von Bedeutung, wo Daten als Katalysator für Innovationen dienen und Fortschritte bei der Entdeckung von Arzneimitteln, der Patientenversorgung und sogar bei der Einhaltung von Vorschriften ermöglichen. Das Konzept der KPIs, das oft mit Leistungskennzahlen in Verbindung gebracht wird, erhielt in Timeas Diskussion eine neue Bedeutung. Sie argumentierte, dass KPIs ein Kompass sein könnten, an dem sich Unternehmen bei ihren Bemühungen um die Monetarisierung von Daten orientieren können. Indem sie die KPIs mit den allgemeinen Geschäftszielen in Einklang bringen, können Unternehmen einen Fahrplan für die Datenmonetarisierung erstellen, der finanziell lukrativ, ethisch vertretbar und strategisch auf die langfristigen Ziele ausgerichtet ist. Timea ging auch auf die Säulen Auffindbarkeit und Datenqualität ein und betonte, dass es sich dabei nicht um rein technische Überlegungen, sondern um strategische Notwendigkeiten handelt. In Branchen wie dem Gesundheits- und Finanzwesen, in denen Datengenauigkeit nicht nur ein Qualitätskriterium, sondern eine gesetzliche Vorschrift ist, kann die Bedeutung der Datenqualität gar nicht hoch genug eingeschätzt werden. Timeas Einblicke erinnerten daran, dass Qualität und Ethik im Streben nach Datenmonetarisierung nicht einfach nur anzukreuzen sind, sondern zum Kern einer nachhaltigen Datenstrategie gehören. Ihr Vortrag war nicht nur eine akademische Übung, sondern ein strategischer Rahmen für Unternehmen, die sich mit der Komplexität der Datenmonetarisierung in einer sich schnell entwickelnden Landschaft auseinandersetzen. Timeas Erkenntnisse waren ein Aufruf zum Handeln für Unternehmensleiter, Daten nicht nur als Ware zu betrachten, die verkauft werden muss, sondern als strategisches Gut, das es zu nutzen gilt. Ihr Vortrag war ein wegweisender Moment im laufenden Dialog über die Rolle von Daten im modernen Geschäftsleben und bot eine nuancierte und mehrdimensionale Perspektive, die in Diskussionen über Datenmonetarisierung oft fehlt.
Produkt-Barcamp: Ein Zusammentreffen von Strategie, Technologie und Networking
Die Zuhörer, eine Mischung aus Technikbegeisterten, Unternehmensleitern und Strategen, waren bereit, sich in ein Thema zu vertiefen, das die Struktur der Geschäftsabläufe neu zu definieren verspricht.
Mein Vortrag begann mit der Darstellung des transformativen Potenzials von Large Language Models. Es handelt sich dabei nicht nur um Werkzeuge zur Automatisierung von Routineaufgaben, sondern im Grunde um eine neue Form der Intelligenz, die die menschlichen Fähigkeiten auf ungeahnte Weise erweitern kann. Nehmen Sie zum Beispiel den Kundenservice. In Branchen wie dem Gesundheits- und Finanzwesen, die an strenge Vorschriften gebunden sind, ist der Spielraum für Fehler minimal. Große Sprachmodelle können die Regeln und Richtlinien durchforsten, um genaue und konforme Antworten zu geben, so dass menschliche Mitarbeiter sich um Probleme kümmern können, die emotionale Intelligenz und ein differenziertes Verständnis erfordern.
Die wirklich bahnbrechende Kraft dieser Technologien liegt jedoch in ihrer Fähigkeit, aus vorhandenen Datenbeständen neue Erkenntnisse zu gewinnen. Ich habe ein Beispiel aus einem Projekt im Pharmasektor vorgestellt, bei dem ein Large Language Model zur Analyse eines riesigen Korpus medizinischer Literatur eingesetzt wurde. Das Modell identifizierte potenzielle Wechselwirkungen zwischen Medikamenten, die menschlichen Forschern entgangen waren, und eröffnete so neue Wege für die Arzneimittelentwicklung und die Patientenversorgung. Es handelt sich hier nicht um bloße Automatisierung, sondern um Innovation, die einen Paradigmenwechsel herbeiführen und einen greifbaren Mehrwert für die Beteiligten schaffen kann.
Die Zuhörer waren sichtlich engagiert, nickten zustimmend und machten sich Notizen. Die anschließenden Fragen waren aufschlussreich und gingen auf die ethischen Überlegungen zur KI und die Herausforderungen bei der Integration dieser Technologien in bestehende IT-Infrastrukturen ein. Es war offensichtlich, dass die Implikationen von Large Language Models und generativer KI bei den Zuhörern Anklang fanden, und zwar nicht als abstrakte Konzepte, sondern als reale Lösungen mit dem Potenzial, interne und externe Veränderungen voranzutreiben.
Garg begann damit, die verbreiteten Missverständnisse bei der Produktstrategie zu entlarven. Er argumentierte, dass es bei einer erfolgreichen Strategie nicht nur darum geht, ein großartiges Produkt zu haben, sondern auch darum, das Ökosystem zu verstehen, in dem dieses Produkt existiert. Dazu gehört ein tiefer Einblick in das Kundenverhalten, Markttrends und geopolitische Faktoren, die die Produktakzeptanz beeinflussen könnten. Er führte das Beispiel eines europäischen Technologieunternehmens an, dem es nicht gelang, auf den asiatischen Märkten Fuß zu fassen, und zwar nicht wegen eines minderwertigen Produkts, sondern aufgrund mangelnder Kenntnisse des lokalen Verbraucherverhaltens und des regulatorischen Umfelds. Dies führte zu einer Diskussion über die Rolle der Datenanalytik bei der Gestaltung der Produktstrategie. Garg betonte, dass Daten ein Nebenprodukt des Geschäftsbetriebs und ein wichtiges Gut sind, das strategische Entscheidungen vorantreiben kann. Er erläuterte, wie fortschrittliche Analysetools Unternehmen dabei helfen können, über oberflächliche Metriken hinauszugehen und tiefere Muster und Trends aufzudecken. So können beispielsweise Algorithmen für maschinelles Lernen zur Analyse von Kundenrezensionen und Erwähnungen in sozialen Medien unschätzbare Einblicke in die Schmerzpunkte und Vorlieben der Kunden liefern, die zur Verbesserung von Produktmerkmalen oder zur Entwicklung neuer Angebote genutzt werden können. Das Gespräch verlagerte sich dann auf die Podiumsdiskussion, bei der ich die Gelegenheit hatte, mit Garg und dem Publikum zu diskutieren. Die Fragen waren prägnant und spiegelten die Tiefe des Themas und seine weitreichenden Auswirkungen wider. Eine Frage, die besonders hervorstach, betraf die Rolle der Unternehmenskultur bei der Gestaltung der Produktstrategie. Garg und ich waren uns einig, dass die Kultur keine Rand-, sondern eine Kernkomponente der Strategie ist. Eine Kultur, die Innovation fördert, Daten schätzt und flexibel genug ist, um sich an Marktveränderungen anzupassen, wird mit größerer Wahrscheinlichkeit eine erfolgreiche Produktstrategie entwickeln können.
Der Schnittpunkt von Innovation, Regulierung und Skalierbarkeit
Nachdem ich den Vorsitz geführt und an diesen transformativen Gipfeltreffen teilgenommen habe, stelle ich mir erneut die Frage, die mich bei meiner Vorbereitung geleitet hat: Was sind die wirklichen Herausforderungen und Chancen, die KI, maschinelles Lernen und große Sprachmodelle den Unternehmen heute bieten? Die Erkenntnisse, die ich auf dem Gipfel gewonnen habe, haben mein Verständnis dieser komplexen Landschaft nur vertieft, und ich glaube, dass wir uns an einem kritischen Punkt befinden, der eine durchdachte Navigation erfordert.
Das rasche Tempo des technologischen Fortschritts führt zu einer Art "technologischer Schuld" für Unternehmen, insbesondere in regulierten Branchen. Diese Schulden manifestieren sich in einer wachsenden Kluft zwischen dem, was die Technologie bieten kann, und dem, was die Unternehmen in der Lage sind, zu implementieren. Die Diskussionen auf dem Gipfeltreffen zu den Themen Data Lineage, Operationalisierung und Echtzeit-Intelligenz haben die Dringlichkeit dieses Themas deutlich gemacht. Unternehmen müssen die Wertschöpfungskette, die das Kundenverhalten beeinflusst, verstehen und kontrollieren. Daten können, wenn sie angemessen entschlüsselt werden, unschätzbare Einblicke in diese Kette liefern. Das volle Potenzial von Daten als Währung bleibt jedoch noch weitgehend ungenutzt. Das Aufkommen von KI und maschinellen Lerntechnologien bietet eine Möglichkeit, diese komplexe Datenlandschaft effizienter zu navigieren. Doch wie die Podiumsdiskussionen des Gipfels deutlich machten, wird der wahre Durchbruch erst dann erfolgen, wenn Unternehmen das Konzept von Daten als Bestand und Fluss vollständig begreifen. Dies wird zu transformativen Momenten führen, die Industrien neu definieren könnten, so wie die selbstfahrenden Fähigkeiten von Tesla den Automobilsektor verändert haben.
Auch die Arbeitskräftelandschaft befindet sich im Umbruch, was auf dem Gipfel deutlich zu spüren war. Am einen Ende des Spektrums gibt es aufstrebende Führungskräfte, die sich auf zukunftsorientiertes Denken und strategische Planung konzentrieren. Auf der anderen Seite gibt es eine aufkeimende Gig-Economy, die von Freiberuflern bevölkert wird, die ständig innovativ sind und sich neue Fähigkeiten aneignen. Diese Dichotomie stellt eine einzigartige Herausforderung für regulierte Branchen dar, in denen die Kultur des Scheiterns noch nicht die Norm ist. Traditionelle Führungsrollen, die sich häufig durch risikoscheues Verhalten auszeichnen, stehen zunehmend im Widerspruch zu der rasanten, innovativen Kultur des Startup-Ökosystems. Diese Diskrepanz wird durch das Fehlen eines einheitlichen Innovationsansatzes noch verschärft, was sich in der Vielfalt der in den Unternehmen eingesetzten Instrumente und Methoden zeigt. Dieser Mangel an Standardisierung behindert die Skalierbarkeit und macht es schwierig, starke Governance-Strukturen aufzubauen.
Das Gipfeltreffen befasste sich auch mit der sich verändernden Rolle von Marken in dieser schnelllebigen Landschaft. Das Streben nach größerer Sichtbarkeit hat dazu geführt, dass einige Marken der Quantität den Vorrang vor der Qualität geben, was zu verwässerten Botschaften führt. Dieser Trend wurde in den Diskussionen über die Monetarisierung von Daten und die Produktionsanalytik deutlich, bei denen sich der Schwerpunkt von der Erstellung einer überzeugenden Erzählung auf das bloße Gesehenwerden verlagert hat. Wie die Präsentationen des Gipfels zu KI und großen Sprachmodellen jedoch deutlich machten, wird disruptive Innovation zur neuen Norm. Marken, die ihre Positionierung langfristig aufrechterhalten wollen, wählen einen maßvolleren Ansatz und nutzen neue Technologien, um gezieltere und wirkungsvollere Kampagnen zu entwickeln.
Diese beiden Gipfeltreffen haben mich in meiner Überzeugung bestärkt, dass wir uns an einem entscheidenden Scheideweg befinden. Die Herausforderungen sind mannigfaltig, aber auch die Chancen. Als jemand, der an der Schnittstelle von Innovation, regulierten Industrien und dem Startup-Ökosystem tätig ist, sehe ich einen dringenden Bedarf an einer neuen Generation von Führungskräften. Diese Führungskräfte müssen in der Lage sein, die strategischen Notwendigkeiten mit einzigartigen operativen und taktischen Aktivitäten zu verknüpfen. Sie müssen technikaffin und anpassungsfähig sein und ein tiefes Verständnis für Daten als Währung und Technologie als Mittel zur Umsetzung haben. Nur dann können Unternehmen hoffen, in dieser komplexen Landschaft erfolgreich zu navigieren und die vor ihnen liegenden Chancen zu nutzen.