Künstliche Intelligenz in der Praxis: Besserer Kundenservice im Bankensektor

Marc Bastien, Data Architect der TIMETOACT GROUP, gewährt im Video Einblicke in ein Kundenprojekt

Künstliche Intelligenz (KI) ist in aller Munde – dabei ist oftmals Thema, welche Perspektiven KI Wirtschaft und Gesellschaft zukünftig bietet. Welchen Nutzen KI Unternehmen bereits heute stiftet, damit beschäftigt sich der Vortrag von Marc Bastien, Solution Architect Analytics der TIMETOACT GROUP. 

Marc berichtet praxisnah aus einem Projekt für den IT-Dienstleister einer Bank. Ziel war es, auf Basis von Daten zu ermitteln, welches Produkt oder welcher Service für individuelle Kund:innen der Bank aktuell interessant sein könnten. Und: Ihnen zur passenden Zeit über den passenden Kanal ein entsprechendes Angebot zu unterbreiten. Dies sollte auf einer Seite die Kundenzufriedenheit erhöhen, auf der anderen Seite die Einnahmen der Bank weiter steigern.

Einblicke in das KI-Projekt im Video

Im Video-Vortrag erfahren Sie, wie wir die Bank zum Erfolg führten. Darüber hinaus erhalten Sie weitere spannende Insides von Marc zum Projekt und allgemein zum Thema KI:

Das Projekt hat sich für unseren Kunden ganz klar gelohnt. Wir halten fest: 46% mehr Termine, 19% mehr Verkäufe und 50% mehr Beratung. Einfach dadurch, dass den richtigen Kunden, das richtige Produkt zur richtigen Zeit angeboten wurde.

Marc Bastien Software Architect TIMETOACT

Data Fabric – Das datengesteuerte Unternehmen

Für die Realisierung des Projekts und die effiziente Nutzung von Daten spielt das Thema Data Fabric eine entscheidende Rolle. So erfassen Unternehmen immer mehr Daten aus verschiedenen Quellen wie bspw. Geräten oder Plattformen. Durch immer bessere Algorithmen, höhere Rechenkapazitäten und günstigere Speicherlösungen können Daten im Vergleich zu früher zielgerichteter genutzt werden.

Für viele Unternehmen stellt eine gewinnbringende Nutzung der Daten aber immer noch eine grosse Herausforderung dar. Datenflut sowie Datenvolumen steigen stetig. Kommt hinzu, dass eine Vielzahl bestehender Managementsysteme und unterschiedliche Ökosysteme eine optimale Datennutzung verhindern. Um uneingeschränkt datengesteuert arbeiten zu können, ist eine integrierte Datenstrategie und -architektur zwingend erforderlich. Nur so können die Herausforderungen der Datenkomplexität erfolgreich bewältigt werden. Hier kommt Data Fabric ins Spiel.

Was ist Data Fabric?

Die Idee der Data Fabric ist ein moderner Ansatz, mit dem Unternehmen vollen Nutzen aus ihrem analytischen Datenbestand schöpfen und damit datengesteuert wichtige Entscheidungen treffen können. Kern der Idee ist die Abkehr vom zentralistischen Ansatz eines (Enterprise) Data Warehouse und/oder eines Data Lake in Silos, hin zu einer verteilten Landschaft. Technisch lose gekoppelt über Virtualisierung, aber fachlich eng verbunden über einen gemeinsamen Datenkatalog inkl. Zugriffslogik und Schutz der Daten. Marc Bastien legt aber Wert auf die Feststellung, dass es sich bei dieser Idee nicht um einen technologie- oder herstellergetriebenen Ansatz handelt, sondern die verteilte Architektur in die Mitte stellt.

Im Video werden die fachlichen Herausforderungen und technischen Lösungen beschrieben und Wege aufgezeichnet, erfolgreiche Projekte mit Data Fabric umzusetzen. IBM* hat Gespür für die analytischen Herausforderungen von Unternehmen bewiesen und bereits vor Jahren mit der Entwicklung der Plattform Cloud Pak for Data begonnen, die nun die optimale technische Basis für die Entwicklung einer Data Fabric bietet.

*IBM wird im Magic Quadrant™ für Datenqualitätslösungen von 2021 als führendes Unternehmen genannt.

Über den Sprecher:
Marc Bastien

Marc Bastien ist als Analytics Architect bei der TIMETOACT sowohl mit architekturellen Fragestellungen als auch mit deren Umsetzung beschäftigt. In rund 30 Jahren beruflicher Tätigkeit ist er stets dem Thema Analytics treu geblieben, zuerst beim Anwender, dann bei Anbietern und schließlich als Berater. Fachliche analytische Kundensituationen und die resultierenden Lösungen reizen ihn besonders. Sein Motto: „Steht doch alles in den Daten, muss man doch nur nutzen!“.

Als Datenversteher wirkte er 2022 an der Kampagne New Creators der IBM mit.

Headerbild IBM Cloud Pak for Data
Technologie

IBM Cloud Pak for Data

Das Cloud Pak for Data fungiert als zentrale, modulare Plattform für analytischen Anwendungsfälle. Es integriert Funktionen für die physikalische und virtuelle Integration von Daten in einen zentralen Datenpool – einen Data Lake oder ein Data Warehouse, einen umfassenden Datenkatalog und zahlreicher Möglichkeiten der (AI-) Analyse bis zur operativen Nutzung derselben.

Headerbild IBM Cloud Pak for Data
Technologie

IBM Cloud Pak for Data

Das Cloud Pak for Data fungiert als zentrale, modulare Plattform für analytischen Anwendungsfälle. Es integriert Funktionen für die physikalische und virtuelle Integration von Daten in einen zentralen Datenpool – einen Data Lake oder ein Data Warehouse, einen umfassenden Datenkatalog und zahlreicher Möglichkeiten der (AI-) Analyse bis zur operativen Nutzung derselben.

Headerbild IBM Cloud Pak for Data
Technologie

IBM Cloud Pak for Data

Das Cloud Pak for Data fungiert als zentrale, modulare Plattform für analytischen Anwendungsfälle. Es integriert Funktionen für die physikalische und virtuelle Integration von Daten in einen zentralen Datenpool – einen Data Lake oder ein Data Warehouse, einen umfassenden Datenkatalog und zahlreicher Möglichkeiten der (AI-) Analyse bis zur operativen Nutzung derselben.

Headerbild IBM Cloud Pak for Data
Technologie

IBM Cloud Pak for Data

Das Cloud Pak for Data fungiert als zentrale, modulare Plattform für analytischen Anwendungsfälle. Es integriert Funktionen für die physikalische und virtuelle Integration von Daten in einen zentralen Datenpool – einen Data Lake oder ein Data Warehouse, einen umfassenden Datenkatalog und zahlreicher Möglichkeiten der (AI-) Analyse bis zur operativen Nutzung derselben.

Headerbild IBM Cloud Pak for Data
Technologie

IBM Cloud Pak for Data

Das Cloud Pak for Data fungiert als zentrale, modulare Plattform für analytischen Anwendungsfälle. Es integriert Funktionen für die physikalische und virtuelle Integration von Daten in einen zentralen Datenpool – einen Data Lake oder ein Data Warehouse, einen umfassenden Datenkatalog und zahlreicher Möglichkeiten der (AI-) Analyse bis zur operativen Nutzung derselben.

Headerbild zu Operationalisierung von Data Science (MLOps)
Service

Operationalisierung von Data Science (MLOps)

Daten und Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI) können fast jeden Geschäftsprozesses basierend auf Fakten unterstützen.

Headerbild zu Operationalisierung von Data Science (MLOps)
Service

Operationalisierung von Data Science (MLOps)

Daten und Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI) können fast jeden Geschäftsprozesses basierend auf Fakten unterstützen.

Webinar

Mit Data Fabric zur datengesteuerten Organisation

Entwickeln Sie eine Datenarchitektur, die ihre Mitarbeitenden dazu befähigt Daten gestützte Entscheidungen zu treffen. Erfahren Sie in unserem Webinar die Vorteile einer Data Fabric als Bestandteil einer vernetzten Plattform, die sämtliche Daten für Analysen und KI bereitstellt.

Jun 13
Event

Data Fabric: Basis für Analytics und KI der nächsten Stufe

Im Webinar erfahren Sie, warum das Thema Data Fabric für Versicherer so wichtig ist. Wir erklären Ihnen, was die Data Fabric genau ist und welche Funktionalität sie für Data Science sowie den IT-Betrieb aufweist. In einer praktischen Demo zeigen wir Ihnen konkret Anwendungsfälle aus der Versicherungsbranche. Darüber hinaus erfahren Sie, in welchen Schritten Sie Ihre eigene Data Fabric einführen können.

Event

Data Fabric: Basis für Analytics und KI der nächsten Stufe

Im Webinar erfahren Sie, warum das Thema Data Fabric für Versicherer so wichtig ist. Wir erklären Ihnen, was die Data Fabric genau ist und welche Funktionalität sie für Data Science sowie den IT-Betrieb aufweist. In einer praktischen Demo zeigen wir Ihnen konkret Anwendungsfälle aus der Versicherungsbranche. Darüber hinaus erfahren Sie, in welchen Schritten Sie Ihre eigene Data Fabric einführen können.

Event

Data Fabric: Basis für Analytics und KI der nächsten Stufe

Im Webinar erfahren Sie, warum das Thema Data Fabric für Versicherer so wichtig ist. Wir erklären Ihnen, was die Data Fabric genau ist und welche Funktionalität sie für Data Science sowie den IT-Betrieb aufweist. In einer praktischen Demo zeigen wir Ihnen konkret Anwendungsfälle aus der Versicherungsbranche. Darüber hinaus erfahren Sie, in welchen Schritten Sie Ihre eigene Data Fabric einführen können.

Headerbild Data Insights
Service

Data Insights

Mit Data Insights helfen wir Ihnen Schritt für Schritt mit der passenden Architektur neue Technologien zu nutzen und eine datengetriebene Unternehmenskultur zu entwickeln

Referenz 29.10.21

Standardisiertes Datenmanagement schafft Basis für Reporting

TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung. Mit diesem standardisierten Datenmanagement erhält TRUMPF künftig Reportings auf Basis verlässlicher Daten und kann das Modell auch auf andere Fachabteilungen übertragen.

Referenz 29.10.21

Standardisiertes Datenmanagement schafft Basis für Reporting

TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung. Mit diesem standardisierten Datenmanagement erhält TRUMPF künftig Reportings auf Basis verlässlicher Daten und kann das Modell auch auf andere Fachabteilungen übertragen.

Referenz 29.10.21

Standardisiertes Datenmanagement schafft Basis für Reporting

TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung. Mit diesem standardisierten Datenmanagement erhält TRUMPF künftig Reportings auf Basis verlässlicher Daten und kann das Modell auch auf andere Fachabteilungen übertragen.

Headerbild zu Digitale Planung, Forecasting und Optimierung
Service

Daten nutzen zur Digitalen Planung und Optimierung

Nachdem über Dashboards und Reports die Daten aufbereitet und visualisiert wurden, gilt es nun die gewonnenen Daten entsprechend zu nutzen. Digitale Planung, Forecasting und Optimierung umschreibt alle Fähigkeiten einer IT-gestützten Lösung im Unternehmen, um Anwender in der digitalen Analyse und Planung zu unterstützen.

Headerbild zu Digitale Planung, Forecasting und Optimierung
Service

Daten nutzen zur Digitalen Planung und Optimierung

Nachdem über Dashboards und Reports die Daten aufbereitet und visualisiert wurden, gilt es nun die gewonnenen Daten entsprechend zu nutzen. Digitale Planung, Forecasting und Optimierung umschreibt alle Fähigkeiten einer IT-gestützten Lösung im Unternehmen, um Anwender in der digitalen Analyse und Planung zu unterstützen.

Header Blogbeitrag Artificial Intelligence
Blog 05.05.22

Artificial Intelligence (AI) mit Spurhalteassistent im Griff

Die Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von AI. Im Zusammenhang mit fairer Beurteilung von Menschen oder menschlichem Verhalten sowieso. Im Zusammenhang mit anderen Daten würden wir konsequenterweise in absehbarer Zeit komplett den Durchblick über Zusammenhänge in den Daten verlieren, wenn wir der AI allein das Feld überließen.

Header Blogbeitrag Artificial Intelligence
Blog 05.05.22

Artificial Intelligence (AI) mit Spurhalteassistent im Griff

Die Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von AI. Im Zusammenhang mit fairer Beurteilung von Menschen oder menschlichem Verhalten sowieso. Im Zusammenhang mit anderen Daten würden wir konsequenterweise in absehbarer Zeit komplett den Durchblick über Zusammenhänge in den Daten verlieren, wenn wir der AI allein das Feld überließen.

Header Blogbeitrag Artificial Intelligence
Blog 05.05.22

Artificial Intelligence (AI) mit Spurhalteassistent im Griff

Die Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von AI. Im Zusammenhang mit fairer Beurteilung von Menschen oder menschlichem Verhalten sowieso. Im Zusammenhang mit anderen Daten würden wir konsequenterweise in absehbarer Zeit komplett den Durchblick über Zusammenhänge in den Daten verlieren, wenn wir der AI allein das Feld überließen.