KI im Wandel der Entwicklung
Wo selbstlernende Systeme an ihre Grenzen stoßen
 

Ob Google, Amazon, Facebook und Netflix in den USA oder Alibaba und Tencent in China: Weltweit hat längst ein Wettrennen um die Entwicklung intelligenter Systeme begonnen, und die Liste lässt sich leicht um viele Firmen und Länder erweitern. Befeuert wird diese Entwicklung durch günstige Rechenkapazitäten und die riesigen, leicht verfügbaren Datenmengen, die die Grundlage für Maschinelles Lernen, den aktuellen Motor der Entwicklung, bilden.

Die Künstlichen neuronalen Netze, die Grundlage für viele aktuelle maschinelle Lernverfahren sind, gehen dabei auf eine Zeit zurück, noch bevor der Begriff Künstliche Intelligenz geprägt wurde. Die einfachste Form neuronaler Netze wurde 1943 von Warren McCulloch und Walter Pitt beschrieben, seither wird diese Art künstlicher Neuronen nach ihren Entwicklern als McCulloch-Pitts-Zellen bezeichnet.

Die Wortschöpfung Artificial Intelligence (AI) wurde erst 1956 im Rahmen des Seminars „Dartmouth Summer Research Project on Artificial Intelligence“ (Dartmouth Workshop) als Forschungsbegriff etabliert. Dieser Workshop gilt heute allgemein als die Geburtsstunde der Künstlichen Intelligenz.
Der Begriff AI wurde vermutlich wirklich zum ersten Mal 1955 in dem Projektantrag zum Dartmouth Workshop verwendet. Dabei gab es bereits vorher Diskussionen über Thinking Machines und Arbeiten dazu von Alan Turing. So stammt auch das Konzept des bekannten Turing-Tests bereits aus dem Jahr 1950.

Dartmouth-Workshop

Im Rahmen des Workshops am Dartmouth College in Hanover, New Hampshire, wurden viele unterschiedliche Themen aufgegriffen, die bis heute aktuell sind. Neben der Beschäftigung mit neuronalen Netzen standen auch die menschliche Sprache („How Can a Computer be Programmed to Use a Lan­guage“), die selbstständige Verbesserung der eigenen Programmierung („Self-Improvement“) oder auch Überlegungen zu Zufall und Kreativität („Randomness and Creativity“) auf der Agenda.

Viele der Teilnehmer des Workshops bildeten in den folgenden Jahrzehnten das Rückgrat der unterschiedlichen Forschungsrichtungen innerhalb der KI, darunter Marvin Minsky, John McCarthy oder Claude Shannon, und auch Warren McCulloch als Entwickler der ersten neuronalen Netze nahm daran teil.

Eine zentrale Frage der AI, die sich bereits damals stellte, ist die Frage nach der Definition des Begriffs „Intelligenz“. Der von Alan Turing 1950 vorgeschlagene und nach ihm benannte Test sollte dabei aus einer Beobachterrolle heraus zwischen einer denkenden Maschine und einem Menschen durch Kommunikation mit dem jeweiligen Gegenüber unterscheiden.

Würde ein Beobachter zwischen beiden nicht unterscheiden können, bedeutete dies, dass die Maschine hinsichtlich ihrer Denkfähigkeit nicht von einem Menschen zu unterscheiden ist. Dabei ist der Beobachter von beiden Parteien so getrennt, dass er diese weder sehen noch mit ihnen sprechen kann, um unabhängig von sensorischen Eindrücken in der Kommunikation zu sein.

Betrachtet man mit dem telefonischen Assistenten „Google Duplex“ die aktuelle Entwicklung im Bereich digitaler Assistenten mit natürlich modulierten Stimmen, dann wäre selbst der Verzicht auf die Sprachübertragung beim Turing-Test heute kaum noch ein Problem für eine KI. Auf der Entwicklerkonferenz I/O 2018 wurde die Aufnahme eines Telefonats zwischen einem digitalen Assistenten und einem Friseursalon vorgespielt: Bei dieser Terminvereinbarung baute der digitale Assistent sogar „Denkpausen“ ein und imitierte auf diese Weise menschliches Verhalten.

Schwache vs. starke KI

Obwohl seit Entwicklung des Turing-Tests beinahe 70 Jahre vergangen sind, haben wir bis heute keine eindeutige Definition für den Begriff Künstliche Intelligenz. Es haben sich aber zumindest zwei unterschiedliche Herangehensweisen herauskristallisiert: die sogenannte schwache KI und die starke KI.

Die starke KI spricht dann von einem intelligenten künstlichen System, wenn es sich um ein System handelt, das aus eigenem Antrieb handelnd mit seiner Umwelt interagiert, Probleme selbstständig erkennt und löst und sich dabei immer weiterentwickelt. Diesen Begriff der KI findet man auch meist in den Unterhaltungsmedien wieder, sei es ein HAL 9000 aus dem Film „2001: Odyssee im Weltraum“ von 1968 oder aktueller „J.A.R.V.I.S.“ aus der „Iron Man“-Filmreihe. Damit wird das öffentliche Verständnis von KI weitgehend geprägt.

Die schwache KI orientiert sich stärker an den Überlegungen, die hinter dem Turing-Test stehen. Hier gilt ein System dann als intelligent, wenn das Problem nicht durch einfache Algorithmen gelöst werden kann und ein Mensch Intelligenz für die Bewältigung dieses Problems benötigen würde (also aus einer Beobachterposition heraus dem System intelligentes Verhalten zubilligt). Diese schwache KI entspricht am ehesten dem, was wir im Moment in der Entwicklung und im technischen Einsatz beobachten können.
Allerdings ist es insbesondere bei der schwachen KI sehr schwer, eine Abgrenzung zwischen einem intelligenten und einem nicht-intelligenten System zu finden.

Eine Studie von MMC Ventures aus dem Jahr 2019 kommt zu dem Schluss, dass 40 Prozent der Start-ups, die KI als Bestandteil ihres Geschäftsmodells bezeichnen, tatsächlich keine KI einsetzen oder KI keine wesentliche Rolle für das jeweilige Geschäftsmodell spielt. Allerdings wird hier der Begriff KI relativ eng gefasst im Sinn von maschinellem Lernen.

KI über die verwendeten Methoden zu definieren, ist ein möglicher Ansatz, und der Einsatz von neuronalen Netzen als wesentlichem Bestandteil einer Problemlösung deutet sicher auf ein KI-System im Sinne der schwachen KI hin. Wenn man hier etwas abstrahiert, kommt man von den neuronalen Netzen schnell zum Begriff des maschinellen Lernens, der etwas weiter gefasst ist und weitere Methoden umfasst, wie z. B. das Lernen von Entscheidungsbäumen oder in erweiterter Form die Random Forests.

Entwicklung der Expertensysteme

Maschinelles Lernen stellt in der Geschichte der KI aber nur einen Zweig dar. Gerade am Anfang der KI stehen vor allem Ansätze, die sich mit der Abbildung von Wissen beschäftigten – zum einen durch das Abbilden von Fakten oder strukturierten Beschreibungen der Umwelt eines Systems und zum anderen durch Abbildung von Zusammenhängen in Regeln.

Die logische Programmiersprache Prolog (1972) ist ein bekannter Vertreter dieses Ansatzes. Später wurden komplexe Expertensystem-Umgebungen entwickelt, in denen man Regeln und Fakten strukturiert „programmieren“ konnte. Die ersten Entwicklungen im Bereich Expertensysteme erfolgten bereits 1965 durch Edward Feigenbaum. Expertensysteme werden daher auch als erste erfolgreiche KI-Systeme genannt.

Eine größere Verbreitung erreichten Expertensysteme erst in den 1980er-Jahren, als kommerzielle Systeme zur Erstellung von Expertensystemen auf den Markt kamen (wie z. B. 1983 KEE von IntelliCorp). Einige Expertensysteme, wie z. B. MYCIN zur Berechnung von Antibiotika-Dosierungen, erreichten dabei durchaus Ergebnisse, die denen menschlicher Experten entsprachen. Der Ansatz, KI mithilfe logischer Schlussfolgerungen zu realisieren, wurde später erweitert – von der klassischen zweiwertigen Logik über mehrwertige Logiken bis hin zur Fuzzy-Logik, die in den 1990er-Jahren stark im Fokus stand.

Inzwischen sind Expertensysteme weitestgehend aus der öffentlichen Wahrnehmung verschwunden und dafür selbstlernende Systeme in den Blickpunkt gerückt. Neben diesen beiden methodischen Herangehensweisen an die KI gab und gibt es aber auch weitere Methoden, wie z. B. Support Vector Machines, Cluster-Algorithmen oder auf statistischen Methoden beruhende Algorithmen, die Grundlage von KI-Lösungen sind.

Neben der Definition der KI über die verwendeten Methoden kann man KI auch über die Anwendungen definieren, für die KI-Methoden einzeln oder in Kombination eingesetzt werden. Das geht in Richtung der Intention des Turing-Tests, da hier Anwendungen als KI-Anwendungen klassifiziert werden, wenn sie ein für Menschen komplexes Problem lösen.

Moderne Assistenzsysteme

Digitale Assistenten sind hier ein aktuelles Anwendungsbeispiel. Von Chat-Bots bis hin zu Siri, Alexa und Co. findet KI heute in der Kommunikation mit Kunden bereits breite Anwendung. Weitere Anwendungsmöglichkeiten ergeben sich in der Bildverarbeitung, z. B. im Bereich des autonomen Fahrens, wenn es darum geht, andere Verkehrsteilnehmer oder Hindernisse zu erkennen.

In diesem Kontext werden häufig auch mehrere Methoden miteinander kombiniert, um die Anforderungen zu erfüllen. So muss bei einem digitalen Assistenten in der Kommunikation zunächst mittels Spracherkennung und Interpretation die Absicht des Kommunikationspartners ermittelt, danach eine Antwort konstruiert und diese auch noch in verständlicher Form zurück übermittelt werden. Ganz ähnlich müssen beim autonomen Fahren zunächst die Umwelt erkannt und zusammen mit dem Fahrtziel daraus Handlungsaktionen abgeleitet werden, die dann konkret an eine Steuerung übertragen werden können.

Abstrahiert man diese Schritte innerhalb von Anwendungsklassen kommt man zu den Problemklassen, mit denen sich KI klassisch auseinandersetzt. Hier gibt es durchaus unterschiedliche Unterteilungen, aber einige grundlegende Problemklassen finden sich immer wieder.

Bei der Klassifikation oder auch Diagnostik besteht das Problem in der Auswahl einer Alternative aus einer Menge vorgegebener Alternativen. Eine beliebte Benchmark für selbstlernende Systeme ist die Klassifikation des ImageNet Datensatzes, der aus ca. 14 Mio. Bildern besteht, die in etwa 20.000 Kategorien eingeteilt sind.

Im Gegensatz zur Klassifikation mit vorgegebenen Klassen versucht man beim Problem Clustering, Ähnlichkeitsstrukturen mittels Methoden der Clusteranalyse zu finden. Wenn ein System Aktionen ausführen soll, dann fällt dies unter die Problemklasse Konstruktion; dabei wird eine Lösung für ein Problem aus vorhandenen Aktionsmöglichkeiten zusammengesetzt, im Fall des autonomen Fahrens dann z. B. Lenkradeinschlag, Beschleunigung und Bremsverhalten. Damit ein autonomes Fahrsystem aber richtig reagieren kann, muss es in der Lage sein, Vorhersagen über kommende Fahrsituationen zu treffen. Um ausweichen zu können, muss es abschätzen, wie sich andere Verkehrsteilnehmer bewegen. Damit werden die Problemklassen Vorhersage, Simulation oder Regression tangiert.

Robot Process Automation

Man kann sich dem Begriff KI also mindestens von drei Seiten nähern: über die Methoden, über die Anwendungen oder über die Problemklassen. Eine einheitliche und genaue Definition lässt sich jedoch nicht finden. Deutlich wird das auch in der Diskussion darüber, ob es sich bei Robot Process Automation (RPA)-Systemen bereits um KI-Anwendungen handelt oder noch um klassische Systeme.

Der Einsatz von RPA verspricht einen neuen Ansatz zur Automatisierung von Arbeitsvorgängen über vorhandene Eingabemöglichkeiten, die üblicherweise von Menschen genutzt werden. In vielen Arbeitsbereichen werden Daten von Menschen zwischen unterschiedlichen Systemen übertragen. Das könnte prinzipiell auch automatisiert erfolgen, aber der Aufwand für eine programmatische Lösung ist aus unterschiedlichen Gründen oft nicht vertretbar.

Hier setzen RPA-Systeme an, die die vorhandenen Programme und Schnittstellen nutzen, um die Daten zwischen Systemen zu übertragen. Der Einsatz lohnt sich dabei nur dann, wenn die Aufgaben sehr häufig ausgeführt werden und nur in geringen Maßen in ihrem Ablauf variieren, sodass man hier auch von einem klassischen Makro sprechen könnte. Im Sinne des Turing-Tests würde man dies aber auch als KI-System betrachten können, da das RPA-System die Auf­gaben eines Menschen übernimmt.

Der Einsatz von RPA kann auch in laufenden Prozessen Menschen in ihrer Arbeit unterstützen und effizienter machen, indem etwa Standardaufgaben – wie das Starten eines Programms und das Aufrufen eines Datensatzes – durch RPA im Hintergrund ausgeführt und so Prozesse beschleunigt werden.
RPA bietet ein geeignetes Mittel, um manuelle Arbeitsschritte zu ersetzen oder effizienter zu gestalten. Das wirft aber auch gesellschaftliche Fragen auf, etwa die, wie KI die Arbeitswelt verändern wird.

Das Potenzial von RPA steht dabei gerade erst am Anfang der Entwicklung. Durch Integration weiterer KI-Methoden werden in Zukunft immer komplexere Aufgabenstellungen über RPA gesteuert werden können. Der RPA-Software-Hersteller UIPath beispielsweise hat im April 2019 in einer Finanzierungsrunde rund 500 Mio. Euro eingesammelt, die er für die weitere Entwicklung Cloud-basierter KI-Methoden für neue RPA-Einsatzmöglichkeiten investieren möchte. Am Ende der Entwicklung sollen autonom handelnde Systeme stehen.

Wer kontrolliert die Systeme?

Dies führt zu der Frage nach Überwachung und Kontrolle von KI-Systemen – nicht nur im Zusammenhang mit RPA, sondern für jedes selbstlernende System. Für den Finanzbereich hat die Aufsichtsbehörde BaFin bereits im Juni 2018 die Studie „Big Data trifft auf künstliche Intelligenz“ veröffentlicht. Da­rin greift sie auch regulatorische Fragen auf, die sich mit der Nachvollziehbarkeit von Handlungen und Entscheidungen von autonomen KI-Systemen beschäftigen.

Ein spannendes Thema in diesem Zusammenhang ist die Gefahr diskriminierender Entscheidungen selbstlernender Systeme. Aus Daten lernende Systeme sollen idealerweise komplexe und verborgene Zusammenhänge erkennen und auswerten. Aktuell ist es allerdings schwer bis sogar unmöglich, das gelernte Wissen nachzuvollziehen oder zu prüfen. Der Übergang von einem differenzierenden System zu einem diskriminierenden ist fließend und kann die eigentliche Aufgabenstellung konterkarieren.

Ein Beispiel dafür ist die vom Online-Händler Amazon getestete KI-unterstützte Auswertung von Bewerbungsunterlagen. Das Ziel war es, Bewerbungen zu erkennen, die für besonders geeignete Kandidaten sprechen. Dabei wurden alte Bewerbungen als Datengrundlage genommen, und die erfolgreichen Bewerber waren das Kriterium für den Lernerfolg. Die Datengrundlage war jedoch bereits geschlechterdiskriminierend: Da in der Vergangenheit männliche Kandidaten bevorzugt wurden, wurde dies auch von dem angelernten System übernommen.

Um das zu vermeiden, wurde folglich alles aus den Daten entfernt, woraus sich Rückschlüsse auf das jeweilige Geschlecht eines Bewerbers ziehen ließen. Dazu gehörten selbst soziale Aktivitäten wie etwa „Vorsitzende der Frauen-Schachmannschaft“.

Und dennoch blieb das System weiterhin diskriminierend, wie eine tiefere Analyse belegte, denn es konnte anhand spezieller Sprachmuster zwischen Männern und Frauen unterscheiden. Bereits die Datengrundlage war geschlechterdiskriminierend gewesen, und auch nach Entfernung eindeutiger Attribute war das angelernte System immer noch in der Lage, zwischen Männern und Frauen zu unterscheiden – und entschied entsprechend der Lernvorgaben aus den Daten zugunsten von Männern. Es hatte erfolgreich das bisherige Verhalten im Einstellungsprozess gelernt, was allerdings nicht die Intention für den Einsatz gewesen war.

Das Beispiel zeigt, dass man bei selbstlernenden Systemen – auch bei vordergründig guten Ergebnissen – immer noch genau prüfen muss, ob das Gelernte auch wirklich objektiven Erfolgskriterien genügt. Dabei sind neben Reputationsrisiken bei offensichtlicher Diskriminierung auch wirtschaftliche Schäden durch Fehlentscheidungen möglich.

Fazit

Aktuell wird es durch die Verfügbarkeit von Rechenkapazitäten und Daten immer einfacher, lernende Systeme aufzubauen. Der Erfolg solcher Systeme, z. B. im Bereich der Bilderkennung und der Sprachkommunikation, verführt dazu, dies als einfach einzusetzende Technologie anzusehen. Tatsächlich stellen sich aber hohe Anforderungen an Zieldefinition, Datenqualität und Prüfung der Ergebnisse.

Die sicher anstehende Regulatorik sollte dabei nicht nur als Hindernis betrachtet werden, sondern auch im eigenen Interesse als Anstoß für neue Kontrollstruk­turen gesehen werden.

Kontakt  
Diesen Artikel ...  
Artikelinformationen 
Artikel veröffentlicht am:
19.06.2019
Erschienen in Ausgabe:
01 | 2019
Quelle(n):

Artikelbild: iStock.com/MissTuni

Autor/in 
Sascha Dierkes


ist Leiter IT-Entwicklung & Operations im Geschäftsbereich Medien bei der Kölner Bank-Verlag GmbH.
Weitere Artikel 
Über KINOTE 
Um einen Wandel der Finanzbranche erfolgreich zu meistern, müssen Kreditinstitute sowohl Chancen als auch Herausforderungen der Künstlichen Intelligenz (KI) erkennen.

Unter der neuen Marke KINOTE der Bank-Verlag GmbH finden Sie Meldungen, Studien und Fachartikel zum Themenkomplex KI.

Wir beantworten Ihre Fragen rund um KI. Wir berichten über Trends, neue Technologien, Forschungsergebnisse und daraus entstehende Möglichkeiten, die KI Ihrem Unternehmen bietet.
Webkiosk 

Das Magazin

Ausgabe 01 | 2019

Jetzt kostenlos lesen

 

 

 

Newsletter

die bank | Newsletter

Abonnieren Sie den kostenlosen redaktionellen Newsletter der Fachzeitschrift „die bank“.
Der Newsletter erscheint mindestens einmal im Monat und informiert Sie über aktuelle Beiträge und News.

 Anmeldung

 Newsletter-Archiv