Big Data

Cognitive Artificial Machine Learning Intelligence

Seit einiger Zeit geistern Schlagwörter in der ICT-Branche herum, bei denen Analysten den Eindruck bekommen, dass diejenigen, die den Begriff gerade vollmundig von ihren Marketing-Folien ablesen, nicht wirklich sattelfest sind, was eine Definition betrifft.

Die Antworten der Industrie auf die Frage, was mit den Schlagwörtern „Cognitive Computing“, „Machine Learning“ oder „Artificial Intelligence“ gemeint ist, fallen durchaus unterschiedlich aus. Erkennbar ist, dass diese Begriffe den gleichen Trend in der Informationsverarbeitung zu umschreiben versuchen.

Machine Learning scheint da noch vergleichsweise gut verstanden zu sein: Es geht darum, dass beispielsweise Suchmaschinen, die Wartungsunterlagen durchforsten, ein irrtümlich zu einem Schlagwort gefundener (und vom Menschen als „False Positive“ markierter) Datensatz bei einer weiteren gleichartigen Suche nicht erneut angezeigt wird. Machine Learning wird aber von der Industrie beispielsweise auch so erklärt, dass hier die Verschlagwortung von Bildern gemeint ist. In diesem Beispiel werden zunächst von Menschen für sehr viele Bildern Eigenschaften (Metadaten) vergeben, so dass eine Bildbeschreibung wie „Auto-Cabrio-Landstraße-Kornfeld“ entsteht. Computer könnten demnach über eine gewisse Zeit auch ein Bild erkennen, dass die entsprechende Farbverteilung oder Konturen besitzt, auch wenn es nicht mit denselben textlichen Metadaten verknüpft ist. Wird ein so gefundenes Bild dann als richtig markiert, erhält es wiederum die passenden Metadaten. So könnte eine bildhafte Suche „lernend“ entwickelt werden. Die Verarbeitung von Bilddaten zur Erkennung von Gesichtern arbeitet im Grunde auch mit diesem Konzept, wobei dabei biometrische Informationen verglichen werden. Ziel ist es bei Machine Learnig, die falschen Treffer, die False Positives, zu minimieren. Wie intensiv und wie lange allerdings der Mensch tatsächlich gebraucht wird, um die zumindest anfangs nicht wenigen falschen Treffer auszusortieren, darüber schweigt sich das Marketing aus. Ebenso darüber, wie reif die Lösungen heute sind.

Cognitive Computing erweitert die Begriffswelt vom Machine Learning. Dabei geht es vor allem darum, dass Computer menschliche Interaktionen verstehen. Die einfachste Erklärung, die wir dazu fanden, meinte dabei das Verstehen menschlicher Sprache. Das können selbstverständlich schon Diktierlösungen sein, wie sie im Gesundheitswesen und in der Juristerei im Einsatz sind, die aber vor allem für das Übersetzen von Sprache in Text konzipiert sind. Die hier verwendeten Wörterbücher bilden neben vielen anderen Daten die Grundlage für Ontologien, wobei Ontologien nicht nur Wörter kennen, sondern auch deren Bedeutung im Satzbau und Verwandtschaft von Wörtern untereinander. Cognitive Computing geht darüber noch hinaus. Eine Definition liefert beispielsweise IBM:

Cognitive Computing

Quelle: IBM, 2015.

Cognitive Computing und kognitive Systeme unterstützen den Menschen demnach, indem sie lernen und Wissen sammeln, die natürliche Sprache (des Menschen) verstehen und auf eine natürlichere Weise als traditionelle programmierbare Systeme mit dem Menschen interagieren. Längerfristig werden kognitive Systeme auch stärker simulieren, wie ein Gehirn funktioniert. Die Firma IBM geht dabei so weit, dass die kognitiven Systeme dem Menschen helfen, die komplexesten Probleme der Welt zu lösen, weil sie die Komplexität von Big Data auflösen können. Die Darstellung von IBM ist weit genug gefasst, um eine gewisse Allgemeingültigkeit zu erlangen.

Machine Learning und Cognitive Computing werden in den nächsten Jahren in die Unternehmens-IT Einzug halten und auch im Consumer-Markt an Bedeutung gewinnen. Artificial Intelligence hingegen ist auch, so auch die Meinung vieler Experten auf der gerade zu Ende gegangenen CeBIT, noch für lange Zeit ein wichtiges Forschungsthema. Ein wichtiger Schritt wird die Simulation des menschlichen Nervensystems bis hin zum menschlichen Gehirn sein. Dabei geht es aber zunächst nicht um die Nachahmung zum Ersatz (wie schon in einigen Science-Fiction-Filmen), sondern um die Nachbildung im Sinne eines Logiksimulators. Bis die Systeme, die heute schon weite Teile des Nervensystems einer Maus im Computer abbilden können, ein Gehirn darstellen können, wird noch sehr viel Zeit vergehen. Noch viel mehr Zeit wird vergehen, bis wir im Alltag mit kybernetischer Intelligenz zusammentreffen werden.

Das, was in Gestalt eines niedlichen Roboters heute verschiedene Aufgaben erledigt, hat noch nicht viel mit Artificial Intelligence zu tun, auch wenn uns das die Präsentatoren glauben machen wollen. Da gibt es nicht nur noch riesige technische Lücken, sondern auch gesetzliche, ethische und gesellschaftliche Hürden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.