Wie funktioniert künstliche Intelligenz?

von
Wie funktioniert künstliche Intelligenz
Foto: pinkeyes // Adobe Stock

Houston hatte ein Problem. Die Raumfahrtingenieure im Lyndon B. Johnson Space Center wurden bei Flügen des Space Shuttle mit Daten überschüttet. Jeder Sensor, jedes System funkte ungefiltert Messwerte in die Kommandozentrale der Nasa. Die Konsole des Hauptrechners spuckte sie als Tabellen voller Abkürzungen und Zahlenreihen aus. Nahezu in Echtzeit musste das Mission-Control- Team das Gewirr interpretieren. Liefen alle Systeme korrekt, lagen alle Werte im grünen Bereich? Oder bahnte sich eine Katastrophe an? Man schrieb das Jahr 1988. Zwei Jahre zuvor war die Raumfähre „Challenger“ kurz nach dem Start zerbrochen – der Ausfall eines Dichtungsrings kostete sieben Menschen das Leben. Um die Sicherheit zu erhöhen, stellte die Nasa den Fachleuten im Kontrollzentrum eine neue Kollegin zur Seite: eine künstliche Intelligenz namens „Inco„, kurz für „Integrated Communications Officer“. Doch wie funktioniert künstliche Intelligenz überhaupt und wie wird sie trainiert?

Wie funktioniert künstliche Intelligenz?

Fortan überwachte Inco die Kommunikationssysteme und die Haupttriebwerke des Space Shuttle. Das Programm analysierte den Datenstrom, detektierte abweichende Werte und nannte mögliche Fehlerquellen. Die Nasa feierte Incos Arbeitsantritt als „Meilenstein in der Anwendung künstlicher Intelligenz“. Was Inco tat, entspricht bis heute der gängigen Definition wie eine künstlicher Intelligenz funktioniert (KI). Das Programm fraß Unmengen unstrukturierte Daten, interpretierte sie und wandelte sie in nützliche Informationen. Nichts anderes macht unser Gehirn mit all den Eindrücken, die der Körper ihm liefert: Es filtert und bewertet Signale, verknüpft sie, erkennt darin Muster und trifft Entscheidungen. Künstliche Intelligenz automatisiert Kernkompetenzen unseres Verstandes. Dabei kann sie größere Datenmengen schneller verarbeiten als das Gehirn. Dennoch ist sie bislang den grauen Zellen unterlegen: Die heutigen KI-Programme können nur jene Aufgabe bewältigen, auf die sie spezialisiert sind – sie sind Schmalspur-Experten.

Unsere Gehirne hingegen sind Multitalente. Nicht nur in ihrer Leistungsfähigkeit unterscheidet sich künstliche Intelligenz vom Gehirn, sondern auch in ihren Methoden. Ein Computer denkt nicht – er rechnet. Allerdings tut er das nicht immer gleich. Das Forschungsfeld der KI umfasst einen bunten Strauß an Methoden. Es gibt statistische Verfahren und solche, die logische Schlussfolgerungen vollziehen, Verfahren, die sich grob am Aufbau des Gehirns orientieren, und solche, in denen Programmcodes im Wettstreit gegeneinander antreten. Und es gibt Programme, die vom Menschen mit Wissen gefüttert werden müssen, und solche, die selbstständig lernen.

DIE EXPERTENSYSTEME

Die ersten künstlichen Intelligenzen waren „Expertensysteme“. Zu ihnen zählte auch das Nasa-Programm Inco. Expertensysteme bringen das Wissen eines eng umrissenen Fachgebiets in eine Form, mit der ein Computer arbeiten kann. Ihr Herzstück ist eine „Wissensbasis“: ein von Fachleuten erstelltes Verzeichnis von Fakten, die durch Regeln miteinander verknüpft sind. Stellt man dem System eine Frage, identifiziert es die zutreffenden Fakten und Regeln. Das Programm kann zudem selbstständig Schlussfolgerungen ziehen; so erweckt es den Anschein von Intelligenz. Ein einfaches Beispiel: Hat man dem System das Wissen einprogrammiert, dass der Spatz ein Vogel ist und dass Vögel in der Regel Flügel haben, kann es darauf schließen, dass ein Spatz Flügel hat. Das erste erfolgreiche Expertensystem hieß „Mycin“ und entstand in den 1970er-Jahren an der Stanford University. Es sollte Ärztinnen und Ärzten passende Antibiotika für die Behandlung bakterieller Infektionen empfehlen.

Im Wettstreit mit menschlichen Fachleuten schlug sich die KI hervorragend. Doch technische Hürden verhinderten, dass „Mycin“ in Krankenhäusern zum Einsatz kam: In den 1970er-Jahren brach das Zeitalter der Computer gerade erst an. Im folgenden Jahrzehnt erlebten Expertensysteme einen Aufschwung. Firmen investierten Millionen in Programme, die Entscheidungsprozesse in eng umgrenzten Anwendungsfeldern automatisierten. Doch in den 1990er-Jahren wurden die Schwächen von Expertensystemen immer offensichtlicher. Sie zu programmieren war aufwendig, ihr Wissen musste ständig aktualisiert werden. Und nicht für alle Anwendungen ließen sich klare Regeln formulieren. An Bild und Spracherkennung scheiterten die Systeme – wie lässt sich etwa die Vielfalt aller Hunde so definieren, dass ein Computer sie zuverlässig erkennt, nicht aber Katzen als Hunde wahrnimmt? Die Methode, dem Rechner Wissen händisch einzuimpfen, stieß an ihre Grenzen.

KÜNSTLICHE NEURONALE NETZE

Damals begann der Aufstieg des maschinellen Lernens. Anstatt Systemen mühevoll Wissen einzutrichtern, lernen sie selbstständig – wie Menschen. Will man einem Kind beibringen, Hunde zu erkennen, legt man ihm ja auch keine Liste mit ausformulierten Klassifizierungsmerkmalen vor. Man zeigt ihm einige Exemplare und sagt: „Guck, ein Hund!“ Eigenständig findet das kindliche Gehirn dann Merkmale und Muster, die den Bernhardiner des Nachbarn ebenso als Hund identifizieren wie Disneys Goofy. Als besonders erfolgreiche Lerner erwiesen sich künstliche neuronale Netze, kurz: KNN. Der Hype um künstliche Intelligenz in jüngeren Jahren wird vor allem mit ihnen assoziiert.

Füttert man sie mit Abertausenden Hundefotos und der Information „Darauf ist ein Hund zu sehen“, entwickeln sie mit der Zeit eigene Regeln zur Klassifizierung – und können nach einer Trainingsphase Hunde auf Bildern meist selbstständig erkennen. Dank immer schnellerer Prozessoren und größerer Datenmengen wurden KNN in den vergangenen Jahren immer leistungsfähiger. Inzwischen erledigen sie routinemäßig früher unlösbar scheinende Aufgaben: Sie erkennen Hautkrebs auf Fotos und Gesichter in sozialen Medien; sie lernen Grundregeln der Sprache und liefern brauchbare Übersetzungen. Sie malen Bilder, komponieren Musik und bringen sich Computerspiele bei. Sie verhalten sich sogar neugierig oder moralisch. Es scheint, die künstlichen neuronalen Netze könnten denken wie Menschen.

DAS MATHEMATISCHE GEHIRN

Tatsächlich orientiert sich ihr Aufbau an dem des Gehirns. In unserem Kopf sitzen rund 86 Milliarden Nervenzellen, die Neuronen. Jede ist im Schnitt mit 1000 anderen verbunden. Über feine Auswüchse empfängt sie Signale und kann sie an andere weitergeben – so verarbeitet
sie eine Information. Zu Beginn unseres Lebens sind die Verbindungen eher zufällig gesetzt. Aber je mehr wir lernen, desto mehr Struktur haben sie. Sind Neuronen oft gemeinsam aktiv, fördert das ihre Verknüpfung: Gelangten Signale zuvor auf einem Trampelpfad von einer Zelle zur nächsten, reisen sie dann auf einer Autobahn. Andere Verbindungen entpuppen sich als überflüssig und werden ausgedünnt oder gekappt. Das Netz verändert sich ständig, um seine vielfältigen Aufgaben effektiv zu erledigen. Wenn wir lernen, einen Hund zu erkennen, formt das wortwörtlich die Struktur unseres Gehirns. Künstliche neuronale Netze übertragen dieses Prinzip der Selbstorganisation auf den Computer.

Die Rolle der Nervenzellen übernehmen dabei „Knoten“: mathematische Gebilde, die eintreffende Signale verarbeiten und das Ergebnis als neues Signal weitergeben. Moderne Netze haben mehrere Millionen bis Milliarden Knoten. Sie sind in „Schichten“ angeordnet. In der einfachsten Version eines KNNs kann jeder Knoten Signale von allen Knoten der vorherigen Schicht erhalten und selbst Signale an alle Knoten der nachfolgenden Schicht senden. Die ersten Schichten verarbeiten noch äußerst simple Informationen. Doch in den nachfolgenden Ebenen werden sie immer weiter kombiniert. So lassen sich in den eingespeisten Datenmassen zunehmend komplexere Muster erkennen. Diese spezielle Form des maschinellen Lernens heißt Deep Learning. Ein trainiertes Netzwerk erhält etwa die Aufgabe „Unterscheide Hunde und Katzen auf Fotos“.

Die Bilddaten starten ihre Reise in der Eingabeschicht. Jeder Knoten in dieser Schicht nimmt sich ein Pixel vor und prüft, wie hell oder dunkel der Bildpunkt ist. Das Ergebnis schickt er an die Knoten der folgenden Schicht. Diese Knoten nehmen die ankommenden Zahlen, rechnen mit ihnen und schicken das Ergebnis weiter zur nächsten Schicht – bis die Ausgabeschicht erreicht ist. Sie besteht nur aus zwei Knoten: „Katze“ und „Hund“. Hat der Hundeknoten einen höheren Wert als der Katzenknoten, verkündet der Rechner: „Das Bild zeigt einen Hund.“

DAS TRAINING

Aber woher weiß so ein Netz, was einen Hund von einer Katze unterscheidet? Die Antwort lautet: Bevor ein Netzwerk trainiert wurde, weiß es gar nichts, seine Ergebnisse sind willkürlich. Wie ein Kind muss das Programm zunächst anhand von Beispielen lernen. Dazu nutzt es unzählige Bilder, die bereits als „Hund“ oder „Katze“ klassifiziert sind. In einem Gehirn verändert sich während des Lernens die Zahl der Verknüpfungen zwischen den beteiligten Nervenzellen. In einem künstlichen neuronalen Netz wiederum erhält jede Verbindung von Knoten eine veränderbare Gewichtung. Dadurch kann das Netzwerk zielführende Signale verstärken und unnütze Signale dämpfen. Jeder Knoten hat zudem eine Aktivierungsschwelle: Nur wenn die eingehenden Signale stark genug sind, leitet er sie weiter. Ansonsten bleibt er stumm.

Wenn diese mathematischen Stellschrauben ideal eingestellt sind, fließen eingehende Daten so durch das Netzwerk, dass sie am Ende jenen Knoten in der Ausgabeschicht erreichen, der das richtige Ergebnis symbolisiert. Müsste ein Mensch den Schwellenwert jedes Knotens und die Gewichtung jeder Verbindung von Hand anpassen, bis das Netzwerk Hunde und Katzen unterscheiden kann – er wäre jahrelang beschäftigt. Zum Glück machen KNN dies autonom, per »Fehlerrückführung«. Erst ihre Erfindung verwandelte neuronale Netze von einer interessanten Idee in eine leistungsfähige Technologie. Die Fehlerrückführung prüft beim Training, wie groß die Differenz zwischen dem vom Menschen vorgegebenen und dem vom KNN errechneten Resultat ist, und versucht, sie zu minimieren. Hat das Netz Hunde in den meisten Fällen erkannt? Oder hielt es jeden zweiten für eine Katze? Wie sicher war es sich bei der Entscheidung?

Anschließend arbeitet sich die Fehlerrückführung zurück durchs Netzwerk, von der Ausgabeschicht bis zur Eingabeschicht. Unterwegs dreht sie an allen mathematischen Rädchen, um die Fehlerquote möglichst stark zu verringern. Nach unzähligen Trainingsläufen und Korrekturschleifen kann das Netzwerk Hunde und Katzen schließlich sicher unterscheiden. Im „Modell“ – so heißt das fertig trainierte Netz – spricht jeder Knoten auf ein bestimmtes Muster im Bild an. Das sind in frühen Schichten oft Kanten: Übergänge zwischen Bereichen mit hellen und dunklen Pixeln. In höheren Schichten reagieren die Knoten bereits auf komplexere Muster. Die können schemenhaft an Ohren, Schnauzen oder Beine erinnern, müssen es aber nicht. Worauf genau ein KNN reagiert, ist für Menschen oft nicht nachvollziehbar. Der hier beschriebene Aufbau entspricht nur der einfachsten Version eines KNNs. Modelle, die Texte übersetzen oder den Verkehr für selbstfahrende Autos analysieren, sind viel verschachtelter. Oft werden sie mit andersartigen KI-Methoden kombiniert. Auch die Art und Weise, wie Netzwerke trainiert werden, ist je nach Anwendung verschieden.

DIE SCHWÄCHEN

Ein Blick in ihr Inneres entzaubert die Netze: Sie sind nichts anderes als eine gigantische Ansammlung von Formeln. Und sie haben bislang noch einige gewichtige Schwächen. Schwachpunkt Nummer eins: ihr Datenhunger. Menschen müssen meist nur ein oder zwei Exemplare einer Spezies sehen, um das Tier beim nächsten Mal wiederzuerkennen. „Ein künstliches neuronales Netz benötigt Zehntausende bis Hunderttausende, in manchen Fällen sogar Millionen Datensätze“, sagt Matthieu Deru vom Deutschen Forschungszentrum für Künstliche Intelligenz. Je komplexer das Problem, desto größer der Bedarf an Trainingsmaterial. All diese Beispiele müssen zuvor von Menschen korrekt beschrieben worden sein. Google zeigt deshalb gelegentlich Bildkacheln, mit der Bitte, alle Autos, Ampeln oder Schaufenster zu markieren. Mit den Informationen trainiert es neuronale Netze, die etwa beim autonomen Fahren zum Einsatz kommen sollen. Letztlich ist ein KNN nur so gut wie sein Trainingsmaterial. „Die Modelle werden immer besser und präziser, aber oft setzt die Datenqualität Grenzen“, sagt Deru.

Jede Ungenauigkeit in den Lerndaten spiegelt sich später in den Entscheidungen der KI wider. Ein Beispiel: Verschiedene Forschungsgruppen trainierten Programme darauf, Augen von Männern und Frauen anhand der Iris-Struktur zu unterscheiden. Doch eine Prüfung zeigte: Die Algorithmen hatten gelernt, weibliche Augen an getuschten Wimpern und Lidstrichen zu erkennen. Die Anekdote führt direkt zu Schwachpunkt Nummer zwei: Welche Muster die künstlichen neuronalen Netze erlernen und welche Kriterien sie an legen, liegt selbst für ihre Schöpfer oft im Dunkeln. Anders als Expertensysteme erklären selbstlernende KIs ihre Entscheidungen nicht. Meist zeigen sich Verirrungen und Schwachstellen erst, wenn das Netz groteske Fehler macht. Doch wer möchte bei medizinischen Diagnosen, autonomen Autos oder der Bewertung seiner Kreditwürdigkeit auf Urteile einer Blackbox vertrauen? Bevor maschinelles Lernen in solch sensiblen Bereichen eingesetzt wird, muss für jeden Anwendungsfall sichergestellt sein, dass die Systeme zuverlässig, im besten Falle nachvollziehbar agieren. Noch lässt sich künstliche Intelligenz leicht überlisten, verwechselt etwa Gegenstände, wenn Bilder nur wenig, aber spezifisch verändert werden. Das Problem: Der KI fehlt echtes Wissen über die Welt. Sie sieht keine Hunde oder Katzen. Sie sieht nur Pixel. Ihr gesunden Menschenverstand anzutrainieren ist mit heutiger Technik nicht machbar.

Das liegt an Schwachpunkt Nummer drei: einem fundamentalen Unterschied zwischen Gehirnen und ihren digitalen Nachahmern. Wir Menschen können unzählige Informationen parallel speichern und bei Bedarf abrufen. Lernen wir, wie ein Hund aussieht, vergessen wir deswegen nicht, wie man einen Lichtschalter betätigt. Doch KNN sind vergesslich. Trainiert man sie auf eine neue Aufgabe, überschreiben sie alles zuvor Gelernte mit neuer Information. Forschende bezeichnen das Phänomen als „katastrophales Vergessen“. Ansätze, es zu überwinden, sind in Arbeit – unter anderem wird dazu das Gehirn noch genauer nachgebildet, indem neben Neuronen auch Dendriten modelliert werden.

IM WETTSTREIT

All diese Probleme betreffen Netze, die Daten auswerten. Immer häufiger kommen jedoch KNN zum Einsatz, die selbst Daten erschaffen. Sie generieren realistische Bilder von Landschaften, Tieren und Menschen, die gar nicht existieren. Sie verändern Gesichtsausdrücke in Videos, Stimmen in Audioaufnahmen und erschaffen Gemälde im Stil alter Meister. Wenn künstliche Intelligenz kreativ wird, sind meist „Generative Adversarial Networks“ am Werk. GANs bestehen aus zwei neuronalen Netzen, die im Wettstreit miteinander stehen. Netz Nummer eins arbeitet als Fälscher: Es analysiert bestehende Bild- oder Tondateien und erschafft Daten, die den Vorlagen extrem ähneln. Netz Nummer zwei spielt den Detektiv: Es versucht, Fälschungen von Originalen zu unterscheiden. Das GAN spuckt nur jene Daten aus, mit denen das Fälschernetz das Detektivnetz überlisten konnte – die Resultate sind verblüffend. Die Technologie ist umstritten, denn sie ermöglicht es, Deepfakes zu generieren: täuschend echt erscheinende, aber gefälschte Videos und Tonaufnahmen etwa von Politikern, die sich zu Propagandazwecken verbreiten lassen. Die Gefahren der künstlichen Intelligenz liegen in solchen Anwendungen – und in den Schwachstellen der zugrunde liegenden Systeme. Ein virtuelles Superbewusstsein müssen wir vorerst nicht fürchten.

Sarah arbeitet als Wissenschaftsjournalistin, unter anderem für „P.M.“ und „National Geographic“. Zum Journalismus kam sie über ihr Studium Modejournalismus/Medienkommunikation in München und Berlin. Auf ihrem beruflichen Weg sammelte sie auch Erfahrungen im Bereich Film und Fernsehen sowie im Marketing. Ihre Interessen liegen vor allem im Tierschutz, Feminismus und in der Kunst – und natürlich im Entdecken von spannenden Geschichten.