Auftaktveranstaltung in Köln
KI verändert das (Bank-)Leben

Künstliche Intelligenz (KI), was ist das eigentlich? Man traut sich ja kaum noch zu fragen, in Zeiten, in denen selbst hinter dem wechselnden Google-Doodle tageweise bereits KI zum Einsatz kommt – zum Geburtstag von Johann Sebastian Bach am 21. März hatte die Suchmaschine mittels KI die Eingaben der Nutzer in Harmonien verwandeln lassen, die klingen sollten wie vom Leipziger Thomaskantor höchstselbst komponiert. 

Aber die Zahl der Unwissenden wird offenbar geringer. Immerhin 52 Prozent der für den jüngsten „D21-Digital-Index“ Befragten trauten sich selbst zu, die richtige Antwort auf die Eingangsfrage zu wissen. „KI bedeutet, einen Computer so zu bauen oder zu programmieren, dass er eigenständig Probleme bearbeiten kann“ oder „KI liegt vor, wenn Computer Aufgaben lösen können, die für Menschen zu kompliziert sind“ lauteten die häufigsten Antworten. 

Für diejenigen, die sich nicht mit oberflächlichen Antworten zufriedengeben wollen oder für ihr berufliches – meist kreditwirtschaftliches – Umfeld detailliertere Antworten und tiefere Analysen benötigen, war die erste KI-Fachkonferenz in Köln ein perfekter Anlaufpunkt. Hier hatte der Bank-Verlag zum Kick-off-Meeting seiner neuen Marke „KI-NOTE“ geladen. „KI-NOTE“ beschäftigt sich mit Künstlicher Intelligenz und den damit verwandten Themen Big Data, Robotic Process Automation (RPA), Machine Learning u.v.m. 

In Köln führte Dr. Stefan Berlik (Foto unten links) die Gäste mit einem brillanten Vortrag in die Welt der KI ein. Der Professor für Big Data Analytics an der Fachhochschule Bielefeld schaffte es, das für (mathematische) Laien oft doch etwas sperrige Thema anschaulich zu vermitteln – von der als „Geburtsstunde der KI“ bezeichneten Summer-Conference am Dartmouth-College über den Turing-Test bis zum Sieg des IBM-Computers Deep Blue über Schachweltmeister Garri Kasparow gab er zunächst einen Einblick in die Historie der KI. 

 

KI in der täglichen Umsetzung

Aus der Erkenntnis, dass KI der menschlichen Denkleistung meilenweit überlegen sein kann, erwuchs der Wunsch, diese Rechenleistung sinnvoll in unseren täglichen Anwendungen einzusetzen. Vereinfacht gesagt: Wenn es Algorithmen gibt, die Probleme erkennen, daraus lernen und sinnvoll handeln können, dann ist das ein neues Tool in unserem „Werkzeugkasten“, das es zu nutzen gilt. Weil diese Algorithmen riesige Datenbasen benötigen, die sie verdichten, um daraus lernen zu können, benötigt man die Datenberge der Big-Data-Welt. Den Prozess könnte man auch mit einer Wissenspyramide beschreiben: An deren Basis befinden sich Symbole, die wahrgenommen und somit zu Daten werden. Diese werden interpretiert und zu einer Information, aus der wiederum Wissen wird, das anschließend zum Handeln genutzt werden kann. 

Und die Menge an verfügbaren Daten ist unvorstellbar groß und wächst unaufhörlich weiter. Nach einer Recherche des amerikanischen Softwareanbieters MerlinOne werden derzeit Tag für Tag 2,5 Trillionen Bytes digitale Daten erzeugt, das ist eine 19-stellige Zahl. Um sie zu speichern, bräuchte man 10 Mio. BlueRay Discs, die sich zu einem Stapel türmten, der viermal so hoch wäre wie der Pariser Eiffelturm, führte Prof. Berlik aus.

„Schuld“ daran trägt die allgegenwärtige Verlagerung von Dienstleistungen ins Netz, eben das „Internet of Everything“: Nicht nur Mailverkehr und Social-Media-Aktivitäten, Files und Geolocation verursachen Datenaufkommen, sondern immer mehr auch die ständig wachsende Zahl von IoT-Sensoren, die pausenlos Unternehmensdaten erfassen, speichern, analysieren. Bis zum Jahr 2025 soll das globale Datenaufkommen sogar auf 175 Zettabytes (eine 24-stellige Zahl) wachsen, berichtet das Portal Statista. Dann bräuchte man zur Visualisierung des  zuvor erwähnten Datenträgerstapels bereits Strecken, die weit ins Universum reichten. 

Die Zuhörer lernten viel über die Grundlagen Maschinellen Lernens („im Detail eigentlich fiese Mathematik und Statistik“). Dahinter verberge sich aber, so Berlik, ein wahrer Paradigmenwechsel in der IT. War es zuvor so, dass man einen Algorithmus unveränderlich für genau ein Problem programmierte, so muss dieser sich nun selbst konstruieren und sich an ändernde Rahmenbedingungen anpassen. Je mehr Daten dem Algorithmus zur Verfügung stehen, desto mehr lernt er und desto besser wird er arbeiten können. 

Eingesetzt werden Algorithmen des maschinellen Lernens u. a. bereits in den Bereichen Computational Finance, z. B. beim Credit-Scoring oder im automatischen Handel, aber auch bei der Bildverarbeitung (etwa im Rahmen der Objekt- und Personenerkennung), in der Energieproduktion, im Automobilbau, in Luftfahrt und Produktion. Und auch im Bereich der Sprachverarbeitung, Stichworte Siri oder Alexa, und selbst in der Medizin geht heute nichts mehr ohne maschinelles Lernen, erläuterte Stefan Berlik. So könne ein Algorithmus, der Millionen von Tumorbildern aus aller Welt auszuwerten in der Lage ist, natürlich wesentlich treffsicherer eine Diagnose über einen potenziellen Krebsherd stellen als ein Arzt, der im Lauf seiner Arbeitsjahre diesen speziellen Tumortyp vielleicht fünf Mal zu sehen bekommen hat. 

An dieser Stelle soll nun aber nicht zu weit vorgegriffen werden. Darüber, wie aus Daten Wissen wird, und über die verschiedenen Methoden maschinellen Lernens hat Professor Berlik selbst einen spannenden Beitrag verfasst, den Sie in der ersten Ausgabe unserer neuen Publikation „KI-NOTE“ lesen können. Das neue Heft erhalten unsere Abonnenten zusammen mit der kommenden Ausgabe „die bank“, Ausgabe 05/2019, am nächsten Freitag, 31. Mai. 

Die sehr gut besuchte KI-Fachkonferenz in Köln beinhaltete darüber hinaus Vorträge über den Einsatz von BDAI (Big Data / Artificial Intelligence) in der Praxis und über optimales Projektmanagement bei der Umsetzung von KI-Projekten. Sven Giesselbach vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme zeigte Möglichkeiten und Grenzen von BDAI auf, Benedikt Thienel von der Datev berichtete aus dem Umsetzungsalltag. 

Die Konferenzteilnehmer konnten sich zudem in vier Workshops mit einzelnen Themenaspekten vertieft beschäftigen. Stefan Füger vom FinTech Elinvar zeigte Beispiele dafür, wie Datenmanagement und -migration bei der Digitalisierung in der Vermögensanlage helfen können, Michael Wolczyk berichtete von den Erfahrungen, die die Commerzbank mit KI in der Kundenkommunikation bereits gemacht hat. Über den Einsatz von Maschinellem Lernen in der Asset Finanzierung berichtete Karin Thielemann von der Deutsche Leasing AG, und Philipp Söchtig aus der Berenberg-Bank nahm seine Workshop-Teilnehmer mit in eine Live-Demonstration darüber, wie sich KI und RPA in den Arbeitsalltag der Bankmitarbeiter implementieren lassen. 

Die gelungene Veranstaltung wird sicher nicht die einzige ihrer Art bleiben. Wir halten Sie auf dem Laufenden, wann und wie es in der Veranstaltungsreihe „KI-NOTE“ weitergeht. 

Kontakt  
Diesen Artikel ...  
Artikelinformationen 
Artikel veröffentlicht am:
20.05.2019
Quelle(n):
Bildquelle: Anja U. Kraus | Bank-Verlag 
Autor/in 
Anja U. Kraus
Weitere Artikel 
Newsletter

die bank | Newsletter

Abonnieren Sie den kostenlosen redaktionellen Newsletter der Fachzeitschrift „die bank“.
Der Newsletter erscheint mindestens einmal im Monat und informiert Sie über aktuelle Beiträge und News.

 Anmeldung

 Newsletter-Archiv