Lesson
    1
    Lesson
    2

    0%
    Lesson
    3
    Lesson
    4

    0%
    • 1.2 Strong  AI vs. Narrow AI

      Die Begriffe der starken und schwachen KI helfen zu unterscheiden, ob eine KI in der Lage ist, ausschließlich eine bestimmte Aufgabe zu erfüllen (schwache KI) oder ob sie sehr unterschiedliche Arten von Problemen lösen kann und dabei der Intelligenz des Menschen nahe kommt bzw. ihr überlegen ist (starke KI). Die starke KI genießt seit geraumer Zeit in der Science Fiction große Aufmerksamkeit, ist jedoch auch bis heute Gegenstand verschiedener Wissenschaften: Neben den Computer und Data Sciences, setzt sich auch die Philosophie mit starker Künstlicher Intelligenz auseinander.

      Alan Turing entwickelte 1950 den Turing-Test, mit dessen Hilfe er überprüfen wollte, wie intelligent eine KI ist. Beim Turing Test stellt eine Testperson einer Maschine und einem Menschen eine Liste von Fragen. Die Antworten der Künstlichen Intelligenz und des Menschen werden ausgewertet, ohne dass die Prüfer wissen, von welcher der beiden Entitäten die Antworten stammen. Eine Künstliche Intelligenz gewinnt den Turing Test, wenn die Testperson die Antworten der Künstlichen Intelligenz für die Antworten des Menschen hält. D.h. die Künstliche Intelligenz muss in der Lage sein, Fragen wie ein Mensch zu beantworten. Bis heute hat noch keine Künstliche Intelligenz den Turing Test erfolgreich bestanden. Trotzdem ist  zweifelbar,  ob  der  Turing  Test  beweist,  dass  eine Künstliche Intelligenz der Intelligenz des Menschen überlegen ist, wenn sie den Test besteht.

      Filmbeispiel

      Im Film "Ex Machina" soll ein Programmierer eine KI einem Turing Test unterziehen. Die Situation entwickelt sich jedoch anders als erwartet...

      So steht der Turing Test trotz anhaltender Popularität in der Kritik. Eine bekannte Position, die dem Turing Test widerspricht, ist jene, die der Philosoph John Searle mit seinem Gedankenexperiment "Das chinesische Zimmer" verdeutlicht. Mit diesem Gedankenexperiment betonte Searle, dass eine starke Künstliche Intelligenz nicht programmiert werden kann, einen Willen, Gefühle oder ein Bewusstsein zu entwickeln. Searle vertritt die Position, dass eine Maschine lediglich jene Verhaltensweisen imitieren kann, die auf vermeintlich menschliche Eigenschaften hinweisen. Um diesen Sachverhalt zu verdeutlichen, platziert Searle im Rahmen seines Gedankenexperiments eine Person in einem abgeschlossenen Raum. Dieser Person werden auf Zetteln chinesische Nachrichten unter der Tür zugeschoben, obwohl sie kein Chinesisch versteht. Sie verfügt allerdings über Anweisungen in der eigenen Sprache darüber, wie sie die Nachrichten auf Chinesisch beantworten kann. Chinesische Personen prüfen die Antworten auf ihre Richtigkeit. Aufgrund der Anweisungen ist die Person im Raum erfolgreich und die Prüfer bestätigen, dass die Person die chinesische Sprache beherrscht. Die Person im Zimmer, wie die Maschine, ist also lediglich in der Lage eine bestimmte Fähigkeit zu imitieren und der Test nicht der richtige, um dies zu überprüfen.

      Ein früher Moment, in dem starke KI als Konzept schriftlich formuliert wurde, erkennt der Autor Nick Bostrom in einem Text des Mathematikers I.J. Good, der während des Zweiten Weltkriegs Teil einer Forschungsgruppe von Alan Turing war. Good konzipiert eine starke KI folgendermaßen:

      "Eine ultraintelligente Maschine sei definiert als eine Maschine, die alle geistigen Anstrengungen jedes noch so schlauen Menschen bei weitem übertreffen kann. Da die Konstruktion von Maschinen solch eine geistige Anstrengung ist, könnte eine ultraintelligente Maschine noch bessere Maschinen konstruieren, zweifellos würde es dann zu einer Intelligenzexplosion kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch je machen muss, vorausgesetzt, die Maschine ist fügsam genug, um uns zu sagen, wie man sie unter Kontrolle hält."

      – Quelle: Good 1965

      Wie der Wissenschaftstheoretiker Karl Popper kritisiert, scheitert die Entwicklung und Evaluierung starker KI nicht zuletzt daran, dass Menschen nicht einmal die eigene Intelligenz bemessen, geschweige denn definieren können (vgl. Popper, Eccles 1982).