SDS 2024

So beeinflussen Daten Wirtschaft und Gesellschaft

Uhr
von Joël Orizet und lha

Die Swiss Conference on Data Science bringt Expertinnen und Experten aus Wissenschaft und Wirtschaft zusammen. An der jüngsten Konferenz gab es viel zu lernen - zum Beispiel, wie KI helfen kann, die Auswirkungen des Klimawandels zu verringern. Und wie Unternehmen wie Migros und die Mobiliar ihre Datenstrategien umsetzen.

An der Swiss Conference on Data Science treffen Führungskräfte auf Expertinnen und Experten aus den angewandten Datenwissenschaften zusammen. (Source: Simone Frischknecht)
An der Swiss Conference on Data Science treffen Führungskräfte auf Expertinnen und Experten aus den angewandten Datenwissenschaften zusammen. (Source: Simone Frischknecht)

Wie tragen Datenanalysen zur Lösung gesellschaftlicher Probleme bei? Was brauchen Unternehmen, um mithilfe von Daten bessere Entscheidungen zu treffen? Und mit welchen Herausforderungen schlägt sich die Datenwissenschaft herum? Antworten auf diese und weitere Fragen rund um das Potenzial von Daten und künstlicher Intelligenz (KI) gab es an der Swiss Conference on Data Science. 

Die elfte Ausgabe der Konferenz, organisiert von der Data Innovation Alliance in Kooperation mit D ONE Value Creation und dem Datalab der Zürcher Hochschule für Angewandte Wissenschaften (ZHAW), ging im Kongresszentrum The Circle am Flughafen Zürich über die Bühne. Auf dem Programm standen Workshops, Vorträge und Diskussionsrunden. Forschende präsentieren ihre jüngsten Publikationen und Führungskräfte gaben Einblicke in ihre Daten- und KI-Strategien. 

Vom Potenzial der Visualisierung

Die Konferenz-Keynote hielt Daniel Keim, Professor für Datenanalyse und Visualisierung an der Universität Konstanz, zum Thema Visual Analytics. Ziel dieses interdisziplinären Ansatzes ist es, neue Wege zu finden, um aggregierte Daten so darzustellen, dass relevante Informationen besser lesbar sind. "Visual Analytics ist entscheidend für die Erschliessung des Potenzials von Big Data", sagte Keim. Das funktioniere allerdings nicht in maschineller Eigenregie, sondern nur in Kombination mit der menschlichen Fähigkeit, Muster und Trends visuell zu erfassen. 

Wie das funktioniert, zeigte Keim anhand mehrerer Beispiele auf. Auf Basis von Intrusion Detection Alerts liessen sich etwa verteilte Netzwerkangriffe im Zeitverlauf darstellen. Weitere Anwendungsfelder sind Echtzeit-Darstellungen des Flugverkehrs, der Ausbreitung von Infektionskrankheiten oder der Auslastung von Spitälern. Der Ansatz sei auch vielversprechend für die Untersuchung von Deep-Learning-Modellen respektive zur Entwicklung von Methoden für die Erklärbarkeit von grossen Sprachmodellen. 

Ein Foto von Daniel Keim, Professor an der Universität Konstanz.

Daniel Keim, Professor für Datenanalyse und Visualisierung an der Universität Konstanz. (Source: Simone Frischknecht)

Von der Schwierigkeit, Sprachmodelle zu bewerten

Inwiefern man solche Language Models (LLMs) auf zuverlässige Weise evaluieren kann, darüber sprach Mark Cieliebak, Professor für Natural Language Processing an der ZHAW. In Bezug auf generative KI zur Texterstellung ist diese Frage alles andere als trivial, denn die Frage, was einen guten Text ausmacht, ist Ansichtssache.

Im Rahmen eines laufenden Forschungsprojekts entwickeln Cieliebak und sein Team ein statistisches Modell, das KI-basierte Textgeneratoren mit einer Kombination aus menschlichen Anmerkungen und automatischen Metriken bewerten kann. Letztere, also die automatischen Metriken, sind allerdings fehleranfällig, wie Cieliebak sagte. Sie kranken unter anderem an einem Selektionsbias, das heisst, sie bevorzugen oder benachteiligen bestimmte Textgenerierungssysteme. 

Auch die LLMs selbst stellen die Forschenden vor Herausforderungen. Kleinste Änderungen am Input können den Output komplett verändern - zudem kann ein System auf denselben Input-Prompt unterschiedliche Resultate erzeugen. Die Ergebnisse sind also schwer reproduzierbar. Grundsätzlich gebe es bei der Evaluierung von LLMs grosse Hindernisse - "doch sie alle sind bewältigbar", sagte Cieliebak. 

Ein Foto des Datalab-Teams der ZHAW.

Das Team des Datalab der ZHAW um Mark Cieliebak, Leiter der Forschungsgruppe Natural Language Processing (5.v.l. unten). (Source: Simone Frischknecht)  

Mit KI gegen die Klimakrise

Wie KI dazu beitragen kann, die Auswirkungen des Klimawandels auf die Schweiz zu reduzieren, erklärte Thomas Brunschwiler, Research Manager bei IBM. Er stellte ein Whitepaper vor, an dem über 50 Forscherinnen und Forscher mitgewirkt hatten. Das erklärte Ziel: Schlüsseltechniken und Methoden entwickeln, die die Gesellschaft widerstandsfähiger machen. 

Mithilfe einer Kombination aus neuen Daten der Erdbeobachtung, Erdsystemmodellen und KI-Tools sei man heute in der Lage, wesentlich genauere Wettervorhersagen zu erstellen als mit klassischen physikalischen Modellen, sagte Brunschwiler. Somit liessen sich denn auch Klimaauswirkungen wesentlich besser vorhersagen. 

Für die Entwicklung entsprechender Anwendungen bestehen jedoch durchaus Schwierigkeiten, insbesondere bezüglich der erforderlichen Rechenleistung respektive des Zugangs zu GPUs, aber auch bezüglich der Skalierbarkeit von einzelnen Forschungsprojekten. Ebenfalls wichtig, um das Vorhaben zügig voranzubringen und damit einen möglichst grossen Impact zu erzielen, seien die Prinzipien Open Source und Open Science, sagte Brunschwiler. "Auch der globale Süden sollte von solchen Technologien profitieren können, zumal er vom Klimawandel besonders betroffen ist."

Ein Foto von Thomas Brunschwiler von IBM.

Thomas Brunschwiler, Research Manager bei IBM. (Source: Simone Frischknecht)

Vorsicht bei der Auswahl der Use Cases

Darüber, wie man mit Daten einen betriebswirtschaftlichen Impact bewirken kann, sprach Fabio Torrisi, Group Chief Data Officer und Head Analytics beim Migros-Genossenschafts-Bund. Für ein sogenanntes Data Enablement gebe es vier Voraussetzungen: Erstens müsse man seine Daten kennen und managen können; zweitens gehe es darum, Daten möglichst schnell verfügbar zu machen; drittens brauche es ein Verständnis für datenbezogene Risiken; und viertens brauche es eine Art Datenkultur. 

Torrisi gab den Zuhörerinnen und Zuhörern einige Learnings mit auf den Weg. Zunächst einmal sollte man nicht mit einer Datenstrategie starten, sondern mit der Business-Strategie, die die Geschäftsziele vorgibt. Anschliessend gilt es, Use Cases zu sammeln, die für das Business relevant sind - und die wichtigsten Metriken zu definieren, mit denen man den Projekterfolg messen kann. Bezüglich der Auswahl der Anwendungsfälle mahnte Torrisi allerdings zur Zurückhaltung: "Wir müssen bei der Auswahl der Use Cases sehr vorsichtig sein", sagte er. Im Zweifel besser auf wenige, aber möglichst wirkungsvolle Beispiele setzen, die aus Business-Sicht einen maximalen Nutzen stiften. 

Ein Foto von Fabio Torrisi vom Migros-Genossenschafts-Bund.

Fabio Torrisi, Group Chief Data Officer und Head Analytics beim Migros-Genossenschafts-Bund. (Source: Simone Frischknecht)

Mitarbeitende mitnehmen

Dass die KI-Strategie eines Unternehmens zwingend im Einklang mit dessen Geschäftsstrategie sein muss, bestätigte Tom Walther, Leiter Daten & Analytics bei der Mobiliar. Als Erfolgsfaktoren für eine datenbasierte Wertschöpfung nannte er: interdisziplinäre Teams und Upskilling in der gesamten Organisation, um so etwas wie eine datengetriebene Kultur zu schaffen. 

Konkret kam Walther darauf zu sprechen, wie die Mobiliar im vergangenen Herbst eine datenschutzkonforme Version von ChatGPT für die eigenen Mitarbeitenden eingeführt hatte. Man habe die Einführung von Mobi-ChatGPT mit einem breiten Schulungsprogramm begleitet, mit zielgruppenspezifischen Modulen und Feedbackschleifen für alle möglichen Abteilungen und Rollen - vom CEO bis zu den Sales-Teams.

Wie das Ganze bei der Belegschaft ankommt, erläuterte Marcus Schwemmle, Head of AI bei der Mobiliar. Die Anwendung werde rege genutzt, insbesondere fürs Verfassen von E-Mails oder zur Zusammenfassung von Dokumenten. Als Kennzahlen nannte Schwemmle 450 User pro Tag, 15'000 Konversationen pro Monat - und Gebühren von monatlich 100 Franken (zuzüglich der Kosten für die Entwicklung des User Interface). 

Am aufwändigsten sei es gewesen, die Mitarbeitenden zu unterstützen und zu befähigen. Das Ziel bestehe schliesslich nicht nur darin, Prompt Engineering Workshops anzubieten. "Extrem wichtig ist es, die nötigen Kompetenzen zu vermitteln, um den Output solcher Systeme kritisch zu evaluieren", sagte Schwemmle. "Denn in Zukunft werden wir mehr und mehr mit Maschinen interagieren - insofern wird es immer wichtiger, dass wir einen verantwortungsvollen Umgang mit Technologien sicherstellen können."

Ein Foto von Marcus Schwemmle von der Mobiliar.

Marcus Schwemmle (l.), Head of AI, und Felix Müller, Senior Data Scientist sowie Project Lead, Die Mobiliar. (Source: Simone Frischknecht)

 

Apropos Mobi-ChatGPT: Was Unternehmen bei der Einführung von KI-Assistenten beachten sollten, erklärte Tom Walther von der Mobiliar im Interview. 

Webcode
vuD7qaMG