Lesson
    1
    Lesson
    2
    Lesson
    3

    0%
    Lesson
    4
    Lesson
    5

    0%
    • 2.1 Künstliche Neuronale Netze

      Selbstlernende Anwendungen Künstlicher Intelligenz basieren heutzutage auf tiefen neuronalen Netzwerken oder Deep Neural Networks. Diese künstlichen neuronalen Netzwerke funktionieren teilweise wie bestimmte Prozesse, die auch im menschlichen Gehirn stattfinden. Sie müssen diese Art der Anwendungen, genau wie Menschen, zunächst lernen, um eine Aufgabe erfüllen zu können. Soll ein Netzwerk in der Lage sein, einen Hund zu erkennen, muss es eine bestimmte Anzahl von Hunden gesehen haben, um selbigen zu erkennen. Da Maschinen im Gegensatz zu Menschen Bilder allerdings als Zahlen “sehen”, muss ein Bild zunächst in einen Vektor übersetzt werden. Dieser Vektor wird daraufhin mit einem Netzwerk, was mathematisch als Matrix übersetzt werden kann, verrechnet. Solch eine Matrix besteht aus einer unbestimmten Anzahl von Schichten. Die ersten Schichten sind für die Erkennung von einfacheren Strukturen verantwortlich, während die letzten Strukturen komplexere Konzepte verstehen.


      Die Schichten eines neuronalen Netzes bestehen aus einzelnen Neuronen. Den einzelnen Neuronen sind Gewichte zugeordnet. Diese Gewichte bestimmen, ob ein einzelnes Neuron feuert bzw. aktiviert wird. In der Entwicklung werden die Vektoren (Bilder) so oft mit dem Netzwerk (Matrix) verrechnet, bis die Gewichte so abgestimmt sind, dass das Netzwerk den gewünschten Output-Vektor ausgibt bzw. das Netzwerk die richtige Aussage über ein bestimmtes Objekt treffen kann. Die folgende Abbildung zeigt Schematisch den Ablauf der Unterscheidung von Hunden und Katzen.


      Ausgehend von der Tatsache, dass sich vor allem in der Bilderkennung Inhalte in einem Bild wiederholen, werden in Convolutional Neural Networks sogenannte Faltungen (engl. convolutions) angewendet. Dabei werden wiederkehrende Gewichte mit dem Dateninput verrechnet. Aufgrund dieser Faltungen verfügt ein Netzwerk über mehr einzelne Schichten als ein gewöhnliches Künstliches Neuronales Netz. Das Netzwerk wird auf diese Weise mit mehr Schichten "tiefer" und präziser in seinen Vorhersagen (z.B. in der Bilderkennung), weswegen solche tiefen neuronalen Netzwerke den Namen Deep Neural Network tragen und diese Methode das Deep Learning genannt wird.

      Yann LeCun war 1989 der erste, der mithilfe eines Lernalgorithmus (Backpropagation) ein vielschichtiges Faltungsnetzwerk trainierte, um damit handgeschriebene Postleitzahlen zu erkennen. Kunihiko Fukushima entwickelte bereits 1980 das Neocognitron, ein neuronales Netz mit vielen Schichten, was man gewissermaßen als den Vorgänger des Faltungsnetzwerks von Yann LeCun bezeichnen könnte. Ohne die in Lektion 1.2 beschrieben Meilensteine von McCullough, Hebb und Rosenblatt, wären die Faltungsnetzwerke von Yann LeCun oder später von Geoffrey Hinton nicht möglich gewesen. Es gibt jedoch noch viele weitere Strukturen tiefer neuronaler Netzwerke.