Skip to main content

Mythos KI: Das Märchen von der Künstlichen Intelligenz

Mythos Künstliche Intelligenz

Copyright @ shutterstock / ARKHIPOV ALEKSEY

„[…] lässt sich Intelligenz überhaupt mithilfe einer theoretischen Analyse greifen? Wird es diesen einen Heureka-Moment geben, eine Eingebung eines mathematisch begabten Ingenieurs? Diese Frage entscheidet darüber, ob kIeine eigenständige Wissenschaft oder einfach nur die Lady Gaga der Informatik ist, eine wilde und farbenfroh kostümierte Dame, die sich der populären Vorstellungskraft  und großer Summen aus den Fördertöpfen bedient, um uns nach einer grellen Show, die hin und wieder für Profitmacherei und Hybris anfällig ist, mit diesem Gefühl zurückzulassen, bei dem wir uns fragen, ob das gerade echt oder doch nur ein Taschenspielertrick war.“ (Jerry Kaplan, Künstliche Intelligenz, 2017, S. 20)

Der Begriff der Künstlichen Intelligenz zieht seit Jahrzehnten Wissenschaft, Medien und zuletzt auch die Internetbranche in ihren Bann. Von Alexa über Google RankBrain bis hin zu cleveren Smarthome-Lösungen, KI hat längst in nahezu allen Branchen Einzug gehalten. Sie erleichtert unseren Alltag, verheißungsvoll und zugleich beängstigend hat sich der Mythos um die Künstliche Intelligenz in ein westliches Denkkonzept eingeflochten, dessen Ideen bis in die griechische Antike zurückreichen. Die Vision Androiden zu schaffen, die die intellektuellen Fähigkeiten des Menschen sogar überflügeln hat den abendländischen Geist bis heute geprägt. Mit ihr aber auch die Angst vor der Ersetzbarkeit des Menschen und seinem befürchteten Kontrollverlust.

Die Programmierer des Suchmaschinen-Anbieters Google können nicht mehr erklären wie ihr RankBrain-Algorithmus funktioniert. Und Alexa nimmt neuerdings unerlaubt Gespräche ihrer Besitzer auf. Ein Nährboden, der den Mythos um die Künstliche Intelligenz neu belebt. Können Computer und Software-Programme tatsächlich intelligenter sein als der Mensch? Oder steckt hinter der Annahme vielleicht ein falsch verstandenes Konzept der menschlichen Intelligenz? Alles nur Schall und Rauch? Grund genug für uns dem KI-Mythos mal auf die Spur zu kommen.

Von Homer bis Hollywood: Historische Vorboten der Künstlichen Intelligenz

Ebenso wie das Fliegen bestimmt der Traum von der vollkommenen menschenähnlichen Maschine den Geist der bisherigen Menschheitsgeschichte. Den Luftraum haben wir bereits erfolgreich erobert. Den Wunsch, eine Maschine zu schaffen, die alles übertrifft, sogar seinen Meister, den Menschen, hegen Vertreter aus Forschung und Wissenschaft noch heute. Der Begriff der Künstlichen Intelligenz ist vergleichsweise jung. Seine Idee aber, eine Maschine zu schaffen, die das menschliche Gehirn simuliert und an Leistung übertrifft, ist alt. Die griechische Antike hat sich mit ihrer Vision von der beseelten Maschine in den Literatur-Kanon eingeschrieben. Mittelalter und Renaissance schrieben die Idee zwar fort, doch erst der Science-Fiction-Autor Isaac Asimov bereitete den gesellschaftlichen Rahmen für den späteren wissenschaftlichen Diskurs. Industrialisierung und Fortschritt des 20. Jahrhunderts ebneten schließlich  den Weg zu einem Verständnis von menschlicher Intelligenz, das in die irreführende KI-Debatte mündete. Künstliche Intelligenz: Ein Begriff war in der zweiten Hälfte des 20. Jahrhunderts geboren, der nicht nur die Wissenschaft hellhörig machte, sondern auch die weltweite Filmindustrie in einen Sog aus Faszination und Furcht zog.

Europäische Kulturgeschichte: Der Traum des künstlichen Doppelgängers

Die erste textliche Überlieferung geht auf den griechischen Dichter Homer zurück. In der Illias erzählt Homer die Geschichte des Schmiedegottes Hephaistos, der den Kretern zum Schutz der Stadt einen eisernen Wächter schuf. Dabei ließ er sich von kunstvollen goldenen Jungfrauen bedienen. Hephaistos gilt als abendländischer Archetyp des Technikers, der Schmied als Inbegriff des Geheimnis-umworbenen Schöpfers, dem es gelingt mit Hilfe von Technik Widernatürliches zu erschaffen (cf. Christoph Vallant, S. 17 f.).

Hephaistos ist vergleichbar mit Ovids Figur Prometheus, der einen Menschen aus Lehm und Wasser schuf, um ihn anschließend zu beleben. Auffallend in den antiken Erzählungen über die Erschaffung künstlichen Lebens ist die Verwendung modernster zeitgenössischer Techniken. In den aktuellen Diskurs über die Künstliche Intelligenz übertragen und die Losung lautet heute: Deep Learning und neuronale Netze. Ebenfalls auffällig: Im Laufe der antiken Literaturgeschichte findet ein Übergang vom göttlichen zum menschlichen Schöpfer der Androiden statt. Dies impliziert „das wachsende Vertrauen einer Kultur in die eigene technische Kompetenz und damit die Profanisierung der Herstellung von Androiden“ (Christoph Vallant, S. 19). Die menschlichen Schöpfer unserer Tage heißen zum Beispiel Gary Illyes, Webmaster Trends Analyst bei Google. Der Mann also, der sich öffentlich eingestehen musste, dass er nicht mehr nachvollziehen könne, wie der Algorithmus von Google RankBrain funktioniert.

Im Mittelalter haftet den Erzählungen über das künstliche Ebenbild meist etwas Magisches und Alchemistisches an. Die Texte offenbaren die Angst vor dem künstlichen Abbild und seiner Herstellungsweise. Die Renaissance hingegen wandte sich ab vom Kontext der Magie, als Modus operandi stand wieder die mechanische Konstruktion im Fokus. Der Unterschied zur Antike: Dank der Schriften von Universalgenies wie Galileo Galilei (Le Meccaniche, 1593) setzte sich ein neues Mechanik-Verständnis durch. Die Mechanik wird fortan nicht mehr als Trick zur Überlistung der Natur verstanden, sondern als Naturwissenschaft.

Eine immer natürlichere Gestalt nehmen die Automaten der Moderne an. Mit seinem fast lebensgroßen Flötenspieler und seiner fressenden und verdauenden Ente erlangte zum Beispiel der Mechaniker Jacques de Vaucanson Berühmtheit. „Die Geschichte der Androiden des 17. Und 18. Jahrhunderts dokumentiert das Begehren des Menschen vom selbst erschaffenen lebendigen Ebenbild, der externen Rekonstruktion, zum besseren Verständnis des eigenen Inneren“ (Christoph Vallant, S. 23). Damit einher ging die metaphysische Verunsicherung über die Existenz der Seele. Der mechanische Doppelgänger des Menschen weckte die Furcht, dass wenn sogar die Seele ein nur komplexes Regelwerk wäre, es keinen Unterschied mehr zwischen Androiden und den Menschen gäbe (Christoph Vallant, S. 24.). Die Auffassung, dass sich das Lebendige durch Selbstbewegung von Totem unterscheidet, löste sich damit auf. Eine Art Demütigung des eigenen Selbstverständnisses, die gleichzeitig zu einem neuen Denken führt: Der Mensch muss mehr sein als die bloße Organisation von Körperteilen. Die Furcht vor dem künstlichen Ebenbild blieb und zeigte sich beispielsweise in Werken wie Mary Shelleys Frankenstein (1818) oder Goethes Faust – die Tragödie zweiter Teil (1882).

Isaac Asimov und seine Roboter-Geschichten

Als visionärer Ideengeber wird im Kontext der Künstlichen Intelligenz vor allem sein Name genannt: Isaac Asimov. Der US-amerikanische Wissenschaftler erlangte durch seine 31 Roboter-Geschichten, die er zwischen 1939 und 1970 zu Papier brachte zu Weltruhm. Und diente als Vorlage für zahlreiche weltbekannte Hollywood-Blockbuster. Darunter: I, Robot, vom australischen Regisseur Alexander Proyas:

Asimov gelang es in seinen Erzählungen ein neues Bild des Androiden zu zeichnen, weg vom bis dato dominierenden Frankenstein-Muster – Roboter wurden geschaffen, um ihre Schöpfer zu töten. Er prägte die Bezeichnung Robotik als wissenschaftlichen Begriff und erläuterte in seinem Werk „Herumtreiber“ zum ersten Mal seine drei Gesetze der Robotik, die in Wissenschaftskreisen bis heute Allgemeingültigkeit besitzen.

Ein Roboter soll ein menschliches Wesen nicht verletzten oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

Ein Roboter muss den Weisungen menschlicher Wesen gehorchen, ausgenommen den Fall, dass die Weisungen dem ersten Gebot widersprechen.

Ein Roboter muss seine eigene Existenz schützen, ausgenommen die Fälle, wo ein solcher Schutz dem ersten oder zweiten Gebot widerspricht.

Asimov geht davon aus, dass die Gehirne der Roboter – sogenannte Positronengehirne – so konstruiert sein müssen, dass sie diesen Regeln unweigerlich folgen. Computer können seiner Meinung nach nicht eigenmächtig handeln. Sie reagieren nach einem binären Schema: 1 für ausführen, 0 für nicht ausführen. Die Gesetze sind seiner Meinung nach notwendig, damit Roboter kein eigenes Bewusstsein erlangen. Andernfalls entstünden unkalkulierbare Folgen für Mensch und Maschine. Eine Maschine, die gehorcht und menschenähnlich ist. Asimov beschreibt seine Idee des Positronengehirns wie folgt:

„Die Maschine soll so fein konstruiert sein, dass sie alle die Sinneseindrücke wahrnehmen kann, die auch ein Mensch empfindet. Die Sinneseindrücke sollen mindestens ebenso schnell wie von einem Menschen verarbeitet und auch so beantwortet werden, wie es ein Mensch für richtig hält. Das alles setzt voraus, dass der Roboter ein Organisationszentrum besitzt, das grob betrachtet genauso kompliziert und zusammengedrängt wie das Gehirn eines Menschen sein muss. Solch ein vom Menschen geschaffenes Gebilde liegt noch jenseits unserer wissenschaftlichen Kenntnisse, (…)“ (Isaac Asinov, die perfekte Maschine, S. 377).

Dartmouth Conference: KI, aus der Nische in die breite Öffentlichkeit

John McCarthy, Professor der Mathematik am Darthmouth Collage in New Hampshire, USA, prägte den Begriff der Künstlichen Intelligenz. McCarthy regte mit drei weiteren Forschern zu einer Konferenz zu diesem Thema an – die Dartmouth Conference, 1956. Als Mitstreiter an seiner Seite: Marvin Minsky von der Harvard University, Claude Shannon von den Bell Telephone Laboratories und Nathan Rochester vom Technologie-Unternehmen IBM. Letzteres gehört zu den Vorreiter-Unternehmen in der KI-Forschung und wird später noch mit bahnbrechenden Entwicklungen von sich reden machen. Zehn bekannte Forscher fanden sich schließlich zu einem Studien-Projekt zusammen, in dessen Förderantrag an die Rockefeller Foundation geschrieben stand:

„Die Studie soll von der Annahme ausgehen, dass grundsätzlich alle Aspekte des Lernens und anderer Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine zur Simulation dieser Vorgänge gebaut werden kann. Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die zurzeit dem Menschen vorbehalten sind, zu lösen und sich selbst weiter zu verbessern“ (Jerry Kaplan, S. 27).

McCarthy hob den Begriff Künstliche Intelligenz aus der Taufe, um seine Studien bewusst von der Kybernetik, der Wissenschaft zur Untersuchung der Kontrolle und Kommunikation von Tier und Maschine, abgrenzen zu können. Die Forscher der Konferenz setzten Ziele eines umfassenden Themenkomplexes auf ihre Agenda. Darunter bereits zwei Themenschwerpunkte, die immer wieder in den Mittelpunkt aktueller KI-Debatten rückten – die Erforschung von Neuronennetzen und die Sprachverarbeitung durch Computer.

McCarthy war überzeugt davon, dass Computer alle kognitiven Funktionen des menschlichen Gehirns simulieren können. Dass die Geschwindigkeit und die Speicherkapazität von Computern zum damaligen Zeitpunkt noch nicht ausreichten, um menschliche Fähigkeiten nachzubilden, war ihm durchaus bewusst. Jedoch war seiner Meinung nach nicht der Mangel das Problem, sondern die Unfähigkeit des Menschen dafür Programme zu schreiben. Der Begriff der Künstlichen Intelligenz warf fortan regelmäßig seine Nebelkerzen und diente aufseiten der Presse und in der Filmindustrie immer wieder als Quelle der Faszination und Verwunderung über die eigene Schaffenskraft des Menschen.

Hollywood: Künstliche Intelligenz als Kassenschlager

Nach der Konferenz von Dartmouth war der Tonus gesetzt: „Künstliche Intelligenz“ wird wie einst die Dampfmaschine zu einem umfassenden Wandel in Wirtschaft, Technik und Gesellschaft führen. Euphorisch gaben Wissenschaftler vor der internationalen Presse zu Protokoll, dass es nicht einmal zehn Jahre dauern wird, bis die erste technische Eruption eintreten werde. Diese lies allerdings noch auf sich warten. Derweil sprang die US-amerikanische Filmindustrie auf den fahrenden Zug auf und machte sich die populäre Begeisterung für Robotik und KI zunutze. R2D2, Terminator oder RoboCop: In den siebziger und achtziger Jahren waren maschinelle Protagonisten zwar menschenähnlich, dennoch behielten sie ihren metallisch-robusten Charme. Ein Gradmesser für den damaligen Entwicklungsstand in der KI-Forschung.

  • Metropolis (1927)
  • 2001 – Odyssee im Weltraum (1968)
  • Star Wars (1977)
  • Blade Runner (1982)
  • Terminator (1984)
  • Nummer 5 lebt (1986)
  • RoboCop (1987)
  • Ghost in the Shell (1995)
  • Matrix (1999)
  • Der 200 Jahre Mann (1999)

Nach Jahrzehnten überzogener Vorhersagen wurde im Jahre 1997 der erste Meilenstein in der Geschichte der KI-Forschung gesetzt. Ein Schachprogramm namens Deep Blue besiegte den damaligen Weltmeister und einer der besten Schachspieler der Welt Garri Kasparow in der sechsten Partie. Die Öffentlichkeit staunte und Kasparow ließ die Schmach nicht lange auf sich sitze und bezichtigte IBM, Entwickler des Programms, der Schummelei. Mit dem Sieg wurde die menschliche Genialität erstmals in Frage gestellt. Schach galt lange Zeit als eine intellektuelle Errungenschaft, die eine Maschine mithilfe von Automatisierung nicht verstehen könne. Deep Blue konnte es und löste damit zahlreiche Debatten darüber aus, inwieweit uns Maschinen in Zukunft intellektuell übertrumpfen, wenn nicht sogar beherrschen können. Diese Faszination gepaart mit Unbehagen spiegeln Blockbuster des neuen Jahrtausends wider. Künstliche Intelligenz nähert sich der Genialität seines Schöpfers, dem Menschen, an, wird beseelt und ist Träger eines menschlichen Bewusstseins.

  • I. – Künstliche Intelligenz (2001)
  • I, Robot (2004)
  • Her (2013)
  • Ex Machina (2014)
  • Alien: Covenant (2017)

Roboter, die den Menschen immer ähnlicher werden, könnten bald auch offiziell Teil unserer Gesellschaft werden. In Japan erhielt unlängst ein Chatbot namens Shibuya Mirei den offiziellen Status als Einwohner der Hauptstadt Tokyo. Sieben Jahre alt fristet der Chatbot sein bürgerliches Dasein auf der Massanger App Line.

Noch skurriler: Der Android namens Sophia. Der jungen Dame wurden vor Kurzem Bürgerrechte zugesprochen. Die Robotin ist offiziell Bürgern von Saudi-Arabien. Kein Witz. Sie ist das Produkt der Firma Hanson Robotics aus Hongkong. Sophia kann Daten verarbeiten sowie Mimik und Gestik des Gegenübers imitieren. Sie beantwortet bereits einfache Fragen und beteiligt sich an einfachen Gesprächen, wie zum Beispiel über das Wetter. Um freche Antworten ist sie ebenso wenig verlegen wie der Mensch.

Menschliche Intelligenz versus Künstliche Intelligenz

Kein Zweifel: Die Technologie der Künstlichen Intelligenz wird unsere Gesellschaft wie einst die Erfindung der Elektrizität und der Dampfmaschine tief greifend verändern. In den vergangenen Jahren hat die KI-Forschung mit Ihrem Ansatz des Deep Learning auf Basis neuronaler Netze einen Quantensprung vollzogen. Computer und Maschinen sind in der Lage dank einer weitaus höheren Speicherkapazität ein Vielfaches mehr an Informationen zu verarbeiten und dank der algorithmischen Mustererkennung daraus neue Informationen aufbauen. „Maschinen sind jetzt noch intelligenter als zuvor“, so der allgemeine Tenor. Dies wirft erneut die alte Frage auf, wann uns Computer und Maschinen in puncto Intelligenz überbieten werden. Oder tun sie es gar bereits?

Theresa Züger bezweifelt dies. Züger forscht am Berliner Alexander Humbold Institut für Internet und Gesellschaft zu sozialen Auswirkungen von technischen Revolutionen. In Bezug auf Sophia und ihren kommunikativen Fähigkeiten sagt sie im Interview mit dem Zeit Magazin, dass es durchaus möglich sei Algorithmen zu entwerfen, die der menschlichen Art zu kommunizieren recht nahe kommen. Doch im Grunde könne eine solche Maschine die menschliche Intelligenz nur imitieren. Um zu verstehen, was Künstliche Intelligenz ist, sei es erst einmal notwendig zu verstehen, was menschliche Intelligenz ausmacht. Davon, so Züger, sei die Intelligenz-Forschung noch weit entfernt (cf. Zeit Magazin #53/ 2017, S. 27-29).

Was ist menschliche Intelligenz?

Der französische Kinderpsychologe Alfred Binet leistete mit seinen Intelligenztests den ersten wichtigen Beitrag zur Intelligenzforschung. Er entwarf um 1900 einen Test zur Ermittlung des geistigen Reifegrades von Kindern. Heranwachsende, die Aufgaben ihrer Altersstufe komplett richtig beantworteten, galten als altersentsprechend intelligent. Später schwangen sich zahlreiche Wissenschaftler dazu auf, auch die Gehirnleistung von Erwachsenen messen zu wollen. Verschiedene Modelle hielten über die Jahre Einzug in die wissenschaftliche Debatte. Doch keine erhielt bisher Allgemeingültigkeit. Die Frage lautet bis heute, ob Intelligenz als eine grundlegende Fähigkeit oder als Bündel aus mehreren kognitiven Fähigkeiten zu verstehen ist.

Eines der bekanntesten Modelle ist das Intelligenzmodell von Cattell. Er unterschied grundsätzlich zwischen fluider und kristalliner Intelligenz. Als fluide Intelligenz bezeichnet er die abstrakte Fähigkeit zum schlussfolgernden Denken. Ist diese besonders ausgeprägt, so kann sich die Person im Zuge ihres Lebens mehr Wissen aneignen. Dieses Wissen bezeichnet Cattell als kristalline Intelligenz, worunter Fähigkeiten wie Sprache und Rechnen fallen.

Das Primärfaktor-Modell von Thurstone geht von der Annahme aus, dass Intelligenz aus sieben gleichberechtigten Faktoren wie Wahrnehmung, Rechnen, Gedächtnis oder Verständnis von Wortbedeutungen besteht. Auch Howard Gardener verfolgte einen ähnlichen Ansatz, den der multiblen Intelligenzen:

  • Sprachliche Intelligenz
  • Logisch-mathematische Intelligenz
  • Musikalisch-rhythmische Intelligenz
  • Bildlich-räumliche Intelligenz
  • Körperlich-kinästetische Intelligenz (z.B. Tänzer, Sportler)
  • Naturalistische Intelligenz (Fähigkeit, Naturphänomene zu beobachten zu erkennen, Forscher, Tierärzte etc.)
  • Interpersonelle Intelligenz (auch soziale oder emotionale Intelligenz)
  • Intrapersonelle Intelligenz (Fähigkeit, eigenen Gefühle, Stimmungen, Motivationen wahrzunehmen, korreliert zum Teil mit emotionaler Intelligenz)

Strittig sind nach wie vor Begriffe wie emotionale oder soziale Intelligenz, da laut Kritikern die Verarbeitungsmechanismen hierbei nicht kognitiv von statten gehen sollen. Anders der deutsche Informatiker Wolfgang Wahlster. Er unterteilt die menschliche Intelligenz in vier Bereiche:

  • Kognitiv (KI dem Menschen in vielen Bereichen schon überlegen?)
  • Sensomotorisch (Mensch der KI noch überlegen)
  • Emotional (KI nicht dazu fähig)
  • Sozial (KI nicht dazu fähig)

Den Begriff der menschlichen Intelligenz einheitlich zu definieren, ist also kaum möglich, auch wenn hin und wieder die Beschreibung „Fähigkeit durch abstraktes logisches Denken Probleme zu lösen“ als Eingrenzung herhalten muss. Um zu verstehen oder besser gesagt zu einer Erkenntnis zu gelangen laufen im Gehirn allerdings viel komplexere Prozesse ab, parallel und im Zusammenspiel. Der Prozess des Erkennens muss nicht immer logisch sein. Faktoren wie Wahrnehmung, Erfahrung & Lernen oder Einfühlungsvermögen sind ebenfalls entscheidend, insbesondere im Umgang mit Menschen. Intelligenz macht also weit mehr aus als die Fähigkeit des logischen Schlussfolgerns. Dennoch behauptet das losgische Denkvermögen seit Jahrzehnten seine Sonderstellung unter den kognitiven Fähigkeiten. Christoph Amend, Redakteur des Zeit Magazins sieht darin folgenden Grund:

„Dass das logisch-mathematische Denken eine Sonderstellung einnimmt, hat damit zu tun, dass moderne Intelligenztests im Zuge der Industrialisierung entwickelt wurden. Sie sollten sicherstellen, dass jemand in der Lage ist, systematisch zu denken und lösungsorientiert zu handeln. Wir wertschätzen die eigene Intelligenz vor allem dann, wenn sie der von Maschinen ähnelt. Zum Beispiel, wenn wir rechnen können wie ein Taschenrechner“ (Zeit Magazin, #53/ 2017, S. 27-29).

Was ist künstliche Intelligenz?

Dampfmaschine, Verbrennungsmotor oder Elektrizität. Alles technische Innovationen, die die Wirtschaft jeweils mit einem Satz auf die nächsthöhere Entwicklungsstufe katapultierte. Als wichtigste eruptive Errungenschaft unserer Zeit gilt die „Künstliche Intelligenz (KI)“, und mit ihr der neueste Ansatz in der KI-Entwicklung: der des maschinellen Lernens über künstlich-neuronale Netze. Maschinelles Lernen ist die Fähigkeit von Maschinen, ihre Leistungen zu verbessern ohne, dass Menschen Ihnen erklären müssen, was genau dabei zu tun ist. „Warum ist das so eine große Sache?“, fragt sich das Magazin Harvard Business Manager (November 2017) und nennt zwei wesentliche Gründe:

  • Menschen wissen viel mehr als sie ausdrücken können. In der Zeit vor dem maschinellen Lernen fiel es den Menschen schwer ihre Vorgehensweise zu erklären. Dadurch konnten viele Aufgaben noch nicht automatisiert werden.
  • Ob in unterschiedlichen Bereichen der Wirtschaft, bei der Aufdeckung von Betrug oder bei der Diagnose von Krankheiten. Maschine-Learning-Systeme leisten heute Übermenschliches und sind oftmals ausgesprochen lernfähig. Die Wirkung auf Wirtschaft und Gesellschaft werde gewaltig sein.

Künstliche Intelligenz: Bestandsaufnahme

1957 erklärte der Ökonom Herbert Simon vollmundig, in zehn Jahren werde ein Computer Menschen im Schach schlagen können. 1967 waren Computer immer noch nicht so weit. Der Kognitionswissenschaftler Marvin Minsky schwang sich allerdings zu einem neuen verheißungsvollen Versprechen auf: Spätestens innerhalb einer einzigen Generation werde das Problem der Erschaffung der Künstlichen Intelligenz gelöst sein. Der erste Computer wurde 1997 Schachweltmeister, Alexa und Google Echo plappern hin und wieder ungefragt drauf los. Das Versprechen von Simon und Minsky ist also noch nicht eingelöst.

„Der Trugschluss, dass das spezielle Wissen eines Computers auf einem allgemeineren Verständnis beruht, ist vielleicht die Hauptursache für Missverständnisse oder Übertreibungen in Verbindung mit der Weiterentwicklung der künstlichen Intelligenz. Wir sind weit davon entfernt, Maschinen zu entwickeln, die über eine bereichsübergreifende allgemeine Intelligenz verfügen“ (Harvard Business Manager, November 2017, S. 27-28).

Fortschritte verzeichneten in den vergangenen Jahren vor allem zwei Bereiche: Wahrnehmen und Erkennen. Insbesondere in der Sprach- und Bilderkennung sind Neuerungen mittlerweile bekannt. Die Gesichtserkennung von Facebook zum Beispiel oder die Sprachdienste wie Siri oder Alexa. Perfekt sind sie zwar noch lange nicht, aber immerhin geben sie einen Vorgeschmack darauf, was in Zukunft mithilfe der künstlichen Intelligenz alles machbar sein könnte. Dank des Maschine-Learning-Ansatzes hat sich das Tempo der Verbesserung deutlich erhöht. Der zweite Bereich in den einen deutlichen Vorstoß gab: Kognition und Problemlösung. Google hat zum Beispiel die Effektivität seiner Kühlung in den Rechenzentren um 15 Prozent gesteigert, obwohl sie bereits zuvor Experten optimiert hatten.

Maschinelles Lernen und das Polanyi-Paradoxon

Der Mensch weiß mehr, als er ausdrücken kann: Das meiste Wissen ist nur implizit vorhanden. Damit ist es Mensch unmöglich, genaue Anleitungen zu schreiben, wie man beispielsweise Gesichter erkennt. Das Maschinelle Lernen hat dieses Problem, das so genannte Polanyi-Paradoxon, überwunden. Künstlich intelligente Maschinen lernen von Beispielen und nutzen strukturiertes Feedback um Probleme von selbst zu lösen. Beim maschinellen Lernen dominiert in der KI-Entwicklung vor allem noch das überwachte Lernen (auch tiefes Lernen genannt). Doch auch zwei weitere Arten halten Einzug: das nicht-überwachte und das bestärkende Lernen.

  • Überwachtes/ tiefes Lernen: Dabei wird dem System ein Trainingsset von tausenden oder Millionen von Beispielen manuell zugeführt und ihnen jeweils eine richtige Antwort zugeordnet. Im Anschluss werden neue Beispiele zugeführt und das System versucht dann die richtigen Antworten selbst zu finden. Dies funktioniert auf Basis des Ansatzes des tiefen Lernens und der Nutzung neuronaler Netze. Vorteil der Algorithmen im Vergleich zu seinen Vorgängern: Sie können erheblich größere Datensätze verarbeiten. Mehr Daten führen dabei zu immer besseren Vorhersagen. Bei älteren Systemen ohne neuronale Netze war irgendwann der Punkt erreicht, an dem sich auch bei weiteren Datensätzen keine Verbesserung mehr abzeichnete. In einigen Systemen werden heute sogar schon über 36 Millionen Daten eingespeist (Vgl. HBM, Nov. 17, S. 28).
  • Nicht-überwachtes Lernen: Systeme lernen selbstbestimmt. Nicht überwachte Lernsysteme werden heute noch sehr selten genutzt. Fragt sich nur, wie lange noch. Bestes Spiel: der Mensch. Er kann anhand weniger oder fehlender Daten sein Wissen über die Welt selbstbestimmt bilden. Doch ist nicht klar, ob es jemals gelingen wird, Systeme auf Basis des nicht-überwachten Lernens zu entwickeln. Sollte dies eines Tages gelingen, würden Computer der Stufe menschlicher Intelligenz einen großen Schritt näher gekommen sein.
  • Bestärkendes Lernen: Programmierer beschreiben Status und Ziel des jeweiligen Systems. Dabei legen sie Aktionen fest, die auf dem Weg zum Ziel erlaubt beziehungsweise ausgeschlossen sind. Beispiel: Überschriften auf msn.com. Microsoft benutzt für seine Nachrichtenseite bestärkendes Lernen bei der Auswahl von Überschriften. Computer werden für Überschriften, die zum Beispiel viele Klicks generieren, mit Punkten belohnt. Das System versucht seinen Punktestand unter Berücksichtigung der ein- und ausgeschlossenen Aktionen zu erhöhen. Das vorgegebene Ziel des Systems entspricht also nicht konkret dem anvisierten Ziel des Unternehmens, das Generieren von überzeugenden Überschriften, um die Klickrate in die Höhe zu treiben.

Maschinelles Lernen und die Praxis

Künstliche Intelligenz, insbesondere das maschinelle Lernen, hat unseren Alltag längst erobert. Und die Tendenz, dass KI weitere Domänen einnimmt, steigt. Drei gute Nachrichten halten die KI-Forscher Erik Brynjolfsson und Andrew Mcafee für die Praxis bereit:

  • Künstliche Intelligenz verbreitet sich dank des steigenden Bedarfs immer weiter. Zwar mangelt es noch an Datenforschern und Maschine-Learning-Experten. Jedoch versuchen bereits Online-Plattformen und neue Studiengänge dem Mangel künftig entgegenzuwirken.
  • Den nötigen Algorithmus sowie die Hardware können gekauft oder gemietet werden. Künstliche Intelligenz über leistungsfähige Cloud-Systeme gibt es bereits. Amazon, Google, Salesforce oder Microsoft haben den Wettbewerb um die beste Maschine-Learning-Infrastruktur längst eröffnet.
  • Schon geringere Datenmengen reichen aus, um maschinelles Lernen produktiv nutzen zu können. Es müssen also nicht unbedingt Millionen Daten sein, um Künstliche Intelligenz im Unternehmen erfolgreich nutzen zu können. Mögliche Folge: Es wird sich nur das Unternehmen innerhalb seiner Branche am Markt behaupten können, das die meisten Daten besitzt.

Ein alter Bekannter der KI-Forschung hat sich mithilfe des maschinellen Lernens und neuronaler Netze weiterentwickelt und sogar völlig neue Tätigkeitsfelder betreten: Watson, der Super-Computer des Technologie-Unternehmens IBM. Das Super-Hirn schlug seine Kontrahenten bereits 2011 in der US-amerikanischen Sendung Jeopardy.

In der Krebsforschung wird Watson schon erfolgreich eingesetzt. Regelmäßig füttern ihn Wissenschaftler mit Informationen aus Krankenakten und Fachliteratur. Watson erkennt daraus Zusammenhänge und kann sogar Erbgut entschlüsseln. Sind alle Informationen des Patienten einmal eingespeist, ruft er diese nebst komplettem Behandlungsverlauf ab und listet mögliche Diagnosen nach Wahrscheinlichkeit geordnet auf (cf. Com! Professional 05/2017)

Die Versicherungskammer Bayern hat sich Watson nun als intelligente Assistenz zur Bearbeitung von Kundenanfragen zugelegt. Seine Künstliche Intelligenz analysiert und ordnet diese nach Anliegen, Hauptaussagen und wichtigen Kundenwünschen. Der Clou: Auch die Gefühlslage des Versicherten entgeht ihm nicht. Sogar Ironie soll das System erkennen können. Watson erspart mit seinen Fertigkeiten den Mitarbeitern das Lesen unzähliger Datenmengen und liefert ihnen die wichtigsten Daten mit nur einem Klick: Patient X hat folgendes Problem, Gemütslage: wütend (cf. Com! Professional 05/2017)

Künstliche Intelligenz: Alles hat Grenzen – und Risiken

Künstliche Intelligenz hat spätestens seit der Erforschung des maschinellen Lernens eine neue Ära des technologischen Fortschritts eingeleitet. Trotz Beifall vonseiten der Industrie hat diese Entwicklung auch ihre Grenzen. Ein Problem, das es sogar schon vor dem maschinellen Lernen gab, besteht weiterhin: das Polanyi-Paradoxon – nur in umgekehrter Form.

  • Menschen können nur sehr schwer nachvollziehen, wie Maschinen zu ihren Entscheidungen kommen
  • Maschinen sind keine Geschichtenerzähler: Ihre Entscheidung rational erklärbar zu machen, fällt (noch) schwer
  • Maschinen wissen also mehr, als sie uns sagen können

Diese Ungewissheit birgt laut den KI-Forschern Brynjolfsson und McAffee drei bedeutende Risiken:

  • Versteckte Vorurteile: Dazu braucht es nicht einmal den offen rassistischen und frauenfeindlichen Programmierer. Vorurteile bauen sich bereits im Training aufgrund der zur Verfügung gestellten Daten auf. Beispiel Personalmanagement: Das System lernt aus den menschlichen Entscheidungen der Vergangenheit und übernimmt automatisch Vorurteile wie Rasse, Geschlecht oder Nationalität, die der Bewerber-Entscheidung in subtiler Form zugrunde lagen
  • Neuronale Netze basieren nicht wie zuvor auf logischen Regeln, sondern auf statistischen Daten: Dies macht es schwierig nachzuweisen, dass ein System auch in Situationen funktioniert, auf die es in Form von zuvor eingespeisten Daten nicht trainiert worden ist.
  • Fehler-Analyse nahezu unmöglich: Wen Fehler im System auftreten sollten, ist es fast unmöglich, genau nachvollziehen zu können, wie es dazu gekommen ist. Lösungen von Systemen können zu Fehlern führen, wenn sich die Bedingungen plötzlich ändern, unter denen sie zuvor trainiert worden sind.

Fazit: Künstliche Intelligenz kennt nur Antworten

Picasso hielt zu Lebzeiten mit seiner Meinung über Computer nicht hinter dem Berg und bringt damit den grundlegenden Unterschied zwischen menschlicher und Künstlicher Intelligenz auf den Punkt:

 „Sie sind nutzlos! Sie können nur Antworten geben.“

Computer sind Maschinen, um Fragen zu beantworten, nicht um sie zu stellen. Es braucht also auch in Zukunft Menschen wie Forscher, Entwickler oder Wissenschaftler, die diese Fragen stellen.

Ist Künstliche Intelligenz also wirklich intelligent? Streng genommen: Nein. Zumindest noch nicht. Doch ob es jemals so weit ist, dass Künstliche Intelligenz mit der menschlichen Intelligenz in vollem Umfang mithalten kann, steht noch in den Sternen. Fakt ist: Die neue Technologie übersteigt einen Teilbereich der menschlichen Intelligenz – das logische Denkvermögen und unser Gedächtnis. Dennoch ist ihre Leistungsfähigkeit eher eindimensional. Das menschliche Gehirn zieht zwar in Menge und Schnelligkeit bei der Datenverarbeitung und Problemlösung den Kürzeren. Dennoch sind seine kognitiven Fähigkeiten umfänglicher und laufen im Gegensatz zur Künstlichen Intelligenz parallel zueinander ab. Kurzum: Künstliche Intelligenz besitzt keinen Verstand. Davon ist auch Toby Walsh, einer der weltweit führenden KI-Forscher, überzeugt:

„Computer folgen nur Regeln. Sie haben nicht die Fähigkeit, Regeln zu brechen oder eigene Entscheidungen zu treffen“ (t3n, #48)

Das erklärt auch, warum Alexa und Co. noch nicht jede Anfrage zufriedenstellend beantworten können. Amazons Sprach-Assistentin im Test, mit zum Teil besorgniserregenden Ergebnissen:

Gut, Alexa weist also noch Mängel auf. Doch macht es Google besser? Mitnichten! Auch bei Google Home muss noch nachjustiert werden. Wenn Mirko Borsche, Redakteur des Zeit Magazins, The Cure hören will, ist Lady Gaga eben die denkbar schlechteste Alternative:

„‚Okay Google, spiel mal ein Lied von The Cure‘ Und hier gingen die Probleme schon los: Bei den ersten Versuchen, mir etwas von The Cure vorspielen zu lassen, bekam ich irgendeinen Song von Lady Gaga zu hören. Warum, weiß ich auch nicht. (…) Als einmal alle Bürokollegen da waren, machte ich eine ganz vage Ansage: ‚Okay Google, spiel mal Musik‘ (…) die ersten Worte lauteten: ‚good pussy, good pussy‘. Wir mussten sehr lachen. Ich wollte das Lied sofort unterbrechen. Doch dann fiel mir das nächste Problem auf: Wenn die Laufstärke zu hoch ist, hört der Google Home Mini meine Stimme nicht mehr. Ich muss schreien. Aus Angst davor, was der Lautsprecher noch so auf Lager hat, blieb ich danach bei unverfänglichen Themen wie dem Wetter.“ (Mirko Borsche, Zeit Magazin, 04.01.2018, S. 39)

Die neuen technischen Errungenschaften eröffnen uns in der Tat neue Möglichkeiten, sowohl im Alltag als auch in der Wirtschaft. Leider auch auf dem Gebiet der Kriminalität. Doch hierzu benötigt KI erst die kriminelle Energie des Menschen. Künstliche Intelligenz klingt verheißungsvoll und beängstigend zugleich. Der Begriff hat es geschafft unser Verständnis für Technologie zu erweitern und es in den schillerndsten Farben zu vernebeln. Jerry Kaplan, KI-Experte und Bestseller-Autor, stellt folgende aufschlussreiche Überlegung an: Was wäre passiert, hätten Luftfahrt-Experten einst statt von Flugzeugen ausschließlich von „künstlichen Vögeln“ gesprochen? Wären die Diskussionen ebenso lebhaft geführt worden?

Wohl kaum. Schließlich steht der Mensch an der Spitze der Nahrungskette. Seine Intelligenz unterscheidet ihn von allen anderen Lebewesen. Der Weg zur erfolgreichen Simulation des menschlichen Gehirns ist hingegen im Wechsel mit Angst und Neugier gepflastert. Mit der Entwicklung der Künstlichen Intelligenz gehen auch Befürchtungen wie Ersetzbarkeit und Kontrollverlust einher. In Wahrheit feiert sich der Mensch für seine schöpferische Genialität und schämt sich zugleich dafür, etwas geschaffen zu haben, das ihm als Genie die eigenen Grenzen vor Augen hält.

Titelbild: Copyright @ shutterstock / ARKHIPOV ALEKSEY

Weitere Quellen:

  • Christoph Vallant: “Hybride, Klone und Chimären – Zur Transzendierung der Körper-, Art- und Gattungsgrenzen, ein Buch über den Menschen hinaus”
  • Isaac Asimov: “Die perfekte Maschine”, aus Rudolf Drux (Hrsg.) “Menschen aus Menschenhand: zur Geschichte d. Androiden”
  • Isaac Asimov: “Alle Roboter-Geschichten”, Verlag: Bastei Lübbe, 6. Aufl.
  • Jerry Kaplan: “Künstliche Intelligenz – eine Einführung”, Verlag: mitp, 1. Auflage 2017
  • Zeit Magazin #53 2017/ #1 & #2 2018
  • t3n, “Let’s  play China”, Zeitschrift #48
  • Com! Professional, “Machine Learning von der Stange”, Zeitschrift 5/2017
  • Harvard Business Manager, “Künstliche Intelligenz”, Zeitschrift 11/2017

 

Kostenloser SEO-Check der OSG

Mythos KI: Das Märchen von der Künstlichen Intelligenz
4.5 (90.59%) 17 votes


Ähnliche Beiträge


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*