July 6, 2021

Skynetdie Matrix, oder HAL 9000, der rotäugige Roboter aus Stanley Kubricks Odyssee im Weltraum – Schreckensvisionen von tyrannischen Künstlichen Intelligenzen (KI) sind fast so alt wie die Idee der KI selbst. Mit der heute nahezu allgegenwärtigen Präsenz von persönlichen digitalen Assistenten, autonomen Fahrzeugen und denkenden Toastern wachsen die Bedenken gegenüber KI rapide. Die Frage “Was ist, wenn mein Smart Home sich selbstständig macht?” ist sicher jedem schon einmal in der einen oder anderen Form durch den Kopf geschwirrt, und selbst Technik-Größen wie Elon Musk fordern öffentlich Regulatorien. 

Doch wo stehen wir aktuell? Wie weit sind wir davon entfernt, eine KI zu entwickeln, die uns gefährlich werden könnte? Diese Fragen, und vielleicht ein paar mehr, möchte ich heute beleuchten. (Ich verspreche hoch und heilig, keine KI zu sein!) 

Was muss ein Skynet können? 

Zunächst einmal möchte ich eine Art Job-Profil für eine KI mit Weltherrschafts-Ambitionen erstellen. Wir suchen: 

  • Eine gute Auffassungsgabe 
  • Hands-On Herangehensweise 
  • Eigenständige Arbeitsfähigkeit 
  • Problemlösende Fähigkeiten 
  • Flexibilität und Anpassungsfähigkeit 

Das mag nach der generischsten Stellenbeschreibung der Welt klingen, beschreibt aber tatsächlich recht gut, welche Hürden ein Skynet in Spe überwinden muss.  

Was ich oben “Auffassungsgabe” genannt habe, beschreibt im Wesentlichen die Fähigkeit einer KI, umfassende Beobachtungen ihrer Umgebung zu machen. Die meisten KIs arbeiten prinzipiell im Dunkeln. Sie sehen lediglich ab und zu ein Daten-Häppchen, welches sie gemäß ihres Trainings verarbeiten. Aber es ist natürlich denkbar, dass eine hinreichend clevere KI die Kontrolle über die Webcams dieser Welt erlangt, Mails mitliest oder unsere Telefonate abhört. 

Selbst eine nun allwissende KI bringt es allerdings nicht weit, ohne die Fähigkeit, Einfluss auf unsere Welt zu nehmen. Bis vor einigen Jahren konnte bestenfalls eine Mail verschickt, oder der Toast zu früh aus dem Toaster katapultiert werden. Mit unseren unermüdlichen Automatisierungs-Bestrebungen haben wir jedoch mittlerweile mehr als genug Möglichkeiten geschaffen, physischen Einfluss zu nehmen. Ich verweise hier zum Beispiel auf die stetig wachsende Roboter-Familie von Boston Dynamics.  

Genügend Werkzeuge zur Beobachtung und Interaktion haben wir also zur Verfügung gestellt, fehlt nur noch die KI, richtig?  

Hier ist der Knackpunkt: Von Eigenständigkeit, Flexibilität und Problemlösen sind wir noch meilenweit entfernt. Diese Eigenschaften, die sich als “Denken” umschreiben lassen, sind das, was eine “starke” KI ausmacht. 

Was bitte ist eine “starke KI”? 

Das Verständnis einer starken KI fällt leichter, wenn man sich zunächst mit den Eigenschaften der schwachen KI beschäftigt. Eine schwache KI ist eine zweckgebundene KI, das heißt sie wird für einen spezifischen Anwendungsfall entworfen und trainiert. 

Nehmen wir als Beispiel die Gesichtserkennung in der Kamera-Applikation der meisten modernen Smartphones. Eine KI sucht kontinuierlich das Sucherbild nach menschlichen Gesichtern ab, um den Fokus entsprechend scharfzustellen. Diese Aufgabe erfüllt die KI sehr gut, in vielen Fällen akkurater und schneller als ein Mensch sie bewältigen könnte. 

Was sie jedoch nicht kann, ist auf Zuruf andere Objekte zu identifizieren, was wiederum Menschen leichtfällt. Dies liegt daran, dass die KI kein Konzept von anderen Dingen als Gesichtern kennt. Genau genommen weiß sie nicht einmal, was ein Gesicht ist. Sie weiß nur, dass sie bestimmte Muster in den Pixeln des Kamerabildes suchen soll. Genauso verhält es sich mit Vorhersage-Algorithmen für Absatzzahlen, autonomen Fahrzeugen oder Chatbots. Alle diese Künstlichen Intelligenzen folgen stur ihrem Training und sind nur sehr beschränkt in der Lage, mit Änderungen in ihren Betriebsparametern oder neuen Situationen umzugehen. 

Hier liegt die Abgrenzung zur starken KI: Während eine schwache KI ihren Job nur anhand ihres Trainings erledigt, versteht eine starke KI ihre Aufgabe, und ist in der Lage eigenständig eine Lösungsstrategie zu entwickeln. Diese Fähigkeit zu argumentieren und zu abstrahieren, verleiht ihr außerdem die Fähigkeit, sich weiterzuentwickeln, sich zu verbessern und sich neue Fähigkeiten anzueignen. Salopp formuliert: Während ein schwach intelligenter Reinigungsroboter pflichtbewusst täglich die verlorenen Hundehaare beseitigt, könnte ein stark intelligenter Reinigungsroboter sich früher oder später auf die Jagd nach dem Hund begeben. 

Wo stehen wir also? 

Einer starken künstlichen Intelligenz kommen wir heute im Bereich der Sprachverarbeitung mit Abstand am nächsten. Siri, Cortana und Co erwecken mit ihren Fähigkeiten zeitweise schon jetzt den Eindruck eines denkenden Gesprächspartners, und die Forschung macht weiterhin rapide Fortschritte. Die heutigen neuronalen Netzwerke erlernen tatsächlich (sprachliche) Konzepte und sind in einem gewissen Rahmen in der Lage, zu abstrahieren und zu argumentieren. 

Besteht also Anlass zur Sorge? Nein. So beeindruckend Modelle wie das von Google entwickelte GPT-3 Netzwerk sind, so sind sie jedoch weiterhin domänen-spezifische Insellösungen. Ihnen fehlt nach wie vor die Möglichkeit, sich autonom weiterzuentwickeln oder Entscheidungen zu treffen. 

Tatsächlich ist es so, dass heutzutage nur ein Bruchteil der KI-Forschung in starke oder generalistische KI gesteckt wird. Dies begründet sich in erster Linie mit dem geringen wirtschaftlichen Nutzwert und dem Mangel an Fortschritt auf diesem Forschungsfeld.

Sie interessieren sich für den Einsatz von schwacher KI, um starken Mehrwert zu  generieren? Dann melden Sie sich gerne bei mir!

 


AUTOR

Max Uppenkamp

Max Uppenkamp has been a Data Scientist at INFORM since 2019. After previously working in Natural Language Processing and Text Mining, he is now engaged in the machine-learning-supported optimization of processes. In addition to accompanying customer projects, he translates the knowledge gained into practice-oriented products and solutions.