Barbara Hinderer | March 18, 2022

Enthüllen wir die Geheimnisse der Intelligenz?

Ein Lernalgorithmus, der die Intelligenz des Gehirns nach einer Methodik aus der frühkindlichen Phase nutzt und sich nicht nur wie bisher gewohnt, der Mathematik bedient. Ein Deep Dive in die Neurowissenschaften.

Zunächst soll hier gezeigt werden, dass diese neue Art von KI in seiner Funktionsweise dem menschlichen Gehirn nachgebildet wird und nicht wie herkömmliche Algorithmen sich Mathematischen Methoden bedient. In dieser hochinteressanten Forschung im Gebiet von KI wird deutlich, warum ein Gehirn eine Baby-Phase durchleben muss, und was passiert, wenn dies nicht der Fall ist. Wie lernt ein Baby überhaupt? Ein Lernalgorithmus zum Erlernen eines Musters, nämlich der Spatial Pooler, zeigt, wie der Neocortex vermutlich diverse Muster speichert und erkennt. Das Spacial Pooling ist ein Algorithmus, welcher das Lernverhalten zwischen räumlich nahen Neuronen steuert.

Dieser neu erforschte Algorithmus ist angelehnt an der Funktionsweise des Gehirns. Die herkömmlichen Algorithmen erscheinen nicht wirklich intelligent. Sie lösen nur die Probleme für die sie konzipiert sind sehr erfolgreich. KI wird oft auf eine bestimmte Tätigkeit programmiert. Damit die KI diese Tätigkeiten lernen kann, müssen zuerst tausende Bilder von bestimmten Aktionen eingelesen werden, was viel Zeit und Aufwand erfordert.

Das ist gerade die Thematik, die den ML-Ansatz von KI unterscheidet. Ein herkömmlicher Algorithmus, der beispielsweise Bilder erkennt, kann keine Musik erkennen oder Sequenzen lernen usw. Ein Gehirn hat ein universelles Algorithmus (Cortical Algorithm), das für alle möglichen Aufgaben trainiert werden kann.

Inspiriert vom faszinierenden Gebiet der Neurowissenschaften und der Computational Intelligence begann Damir Dobric, Geschäftsführer und Technical Lead Architect von daenet und Microsoft Regional Director an der Frankfurt University of Applied Sciences vor einigen Jahren, in diesem Bereich zu forschen. Damir unterrichtet dort Software-Engineering und Cloud Computing mit Schwerpunkt auf ML, C#/.NET Core und Cloud Computing.

Auf der Suche nach “Intelligenz”

Vereinfacht formuliert, erforscht Damir “die Intelligenz”. Das hört sich etwas seltsam oder nahezu unmöglich an. Die Wissenschaft hat ein Jahrhundert lang in diesen Gebieten unzählige Beobachtungen durchgeführt. Es besteht dadurch eine fundierte Basis an verwertbaren Informationen.

Das Thema KI haben sich bisher jedoch die Mathematiker auf die Fahne geschrieben. Diese haben zahlreichen Algorithmen entdeckt, welche fähig sind zu lernen. Das macht diese herkömmlichen Algorithmen aber noch lange nicht zu intelligenten.

Stellt euch einen Algorithmus vor, der in der Lage ist, Bilder oder Sequenzen zu erlernen und ähnliche Dinge zu erkennen, ein Algorithmus, der robust gegen Fehler agieren kann und so weiter! Sind diese Fähigkeiten nicht dem sehr ähnlich, wie unser Gehirn funktioniert? Kein Supervised Learning, kein Unsupervised Learning, kein Clustering und keine Mathe als Maß der Dinge. Wir unterscheiden hier zwischen Kristalliner und Fluider Intelligenz. Unter Kristalliner Intelligenz versteht man das Faktenwissen, das sich Menschen im Laufe des Lebens aneignen. Im Gegensatz dazu bezeichnet die Fluide Intelligenz die Fähigkeit des schlussfolgernden Denkens, des Lernens neuer Inhalte und dem situationsangemessenen Verhalten

Damir forscht in diesem spezifischen KI-Gebiet und erstellte bereits eine der ersten Implementierung überhaupt in C#. Dies ist absolut neuartig im Vergleich zur bisher gängigen Entwicklung einer Plattform zur Anwendung von Methoden der KI auf Basis von Python.

Innovatives Open-Source Projekt: NeoCortex API

Basierend auf Ideen des Hierarchical Temporal Memory entwickelte Damir ein Framework in .NET Core unter dem Namen NeoCortexAPI. Dieses Open-Source-Projekt beinhaltet alle Forschungsergebnisse in Form einer C#/.NET API.

Welche Vorteile bringt die frühkindliche Phase beim Erlernen neuer Muster mit sich?

Für eine seiner Publikationen erhielt Damir 2021 den Best Industrial Paper Award (20). In dieser Publikation wird gezeigt, warum es wichtig ist, dass ein Algorithmus - genau wie ein Gehirn - eine Neugeborenen-Phase durchlaufen muss. Ein bestehender Teil eines Algorithmus wurde erweitert und somit ermöglicht, dass sich der Algorithmus am Anfang wie ein Baby verhält. Wenn eine Maschine ähnlich wie ein Neugeborenes klein anfängt und Dinge auch selbst herausfindet, ist sie für die schwierigen Aufgaben bereit. Hat der Algorithmus diese Phase abgeschlossen, können perfekte finalen Ergebnisse aus den KI-Anforderungen erzielt werden. Ein Algorithmus, der diese Phase nicht durchläuft, leidet später an mangelhaften Fähigkeiten, weil die gesamten Populationen von Neuronen ungenutzt bleiben. Somit handelt es sich hierbei um die Grundlagen Forschung der wahren Intelligenz. Viele Stimmen in der Community gehen davon aus, dass diese Art von Algorithmen die nächste KI wird (HTM Forum (numenta.org ).

Warum es sinnvoll ist, KI der Funktionsweise des Gehirns nachzuempfinden anstatt mathematischen Algorithmen

Um die Funktionsweise des Gehirns nachzubilden, bedienen wir uns des Spatial Poolers. Der Spatial Pooler (SP) ist ein kortikaler Lernalgorithmus, der sich am Neokortex orientiert. Der bestehende SP hat die frühkindliche Phase nicht durchlebt. Woher auch. Wer hat schon mal einen Algorithmus gesehen, der in die Wiege gelegt werden muss? Mit diesem wissenschaftlichen Ansatz ist dies jedoch anders.

Wie funktioniert das menschliche Lernen? Zu Beginn des Lernens werden die Muster in den Neuronen entschlüsselt. Das Problem dabei ist, dass sich die Energie, welche durch Neuronen strömt, wie ein Fluss verhält. Sie sucht sich einen Weg, der mit der Zeit verfestigt wird. Damit dies nicht passiert, gibt es im Gehirn ein Homeostatic Plasticity Mechanismus, der dafür sorgt, dass alle verfügbare Neuronen gleichmäßig verwendet werden. Wie ein Fluss in einem Delta. Leider vergisst der Algorithmus die gelernten Muster, so lange dieser Mechanismus aktiv ist. Das ist der Grund, warum wir uns nicht an unsere Babyzeit erinnern können. Alles was gelernt war, geht verloren, weil diese Art von “Plasticity” willkürlich einen Energieschub an die noch nicht aktive Neuronen transportiert. Wenn dies passiert, überschreibt die neue Energie, die bereits gelernte Information.

In einer früheren Publikation stellten die Naturwissenschaftler fest, dass diese Art von Plasticity mit fortgeschrittenem Heranwachsen eines neugeborenes Spezies bei Säugetieren (dazu gehören auch Menschen, ob uns das lieb ist oder nicht) an Intensität verliert und zwar dann, wenn ein Baby kein Baby mehr ist. Diese Idee wird hier nun umgesetzt. Wenn ein Algorithmus startet, lernt dieser alles und vergisst auch alles, weil “Plasticity” die Energie immer wieder zerstreut. Nach einer gewissen Zeit, die Damir New-Born-Stage nennt, wird jene “Plasticity” ausgeschaltet. Infolge dessen fließt die Energie nicht mehr willkürlich und der Algorithmus vergisst keine gelernten Muster mehr.

Reverse-Engineering

Überzeugt von der Idee des Hierarchical Temporal Memory Cortical Learning Algorithm (HTM CLA) begann Damir, den Neokortex zu simulieren. Schließlich war seine Begeisterung für die biologische Funktionsweise des Neokortex der Auslöser, sich auf den Reverse-Engineering Ansatz zu fokussieren.

HTM-CLA - Spatial Pooler (SP) ist ein kortikaler Lernalgorithmus, der sich am Neokortex orientiert. Ein hierarchischer Temporalspeicher HTM ist ein Modell des maschinellen Lernens, welches von Jeff Hawkins und Dileep George (Numenta, Inc.) entwickelt wurde. Dieses Modell bildet einige Eigenschaften des Neocortex ab. Das Spacial Pooling ist ein Algorithmus, welcher das Lernverhalten zwischen räumlich nahen Neuronen steuert. Wird ein Neuron aktiviert, so wird die Aktivierung räumlich benachbarter Neuronen unterdrückt. Dieser Lernalgorithmus wurde entwickelt, um das räumliche Muster zu lernen, indem er den Sparse Distributed Representation Code (SDR) des Inputs erzeugt. Er kodiert den Satz aktiver Eingangsneuronen als SDR, der durch den Satz aktiver Neuronen definiert ist, die in Gruppen, den so genannten Minispalten, organisiert sind.

Diese Arbeit liefert zusätzliche Erkenntnisse, die die frühere Arbeit erweitern und aufzeigen, wie und warum der Spatial Pooler gelernte SDRs im Trainingsverlauf vergisst.

Fazit: Die Idee ist grundsätzlich, von der Funktionsweise des Gehirns in der frühkindlichen Phase zu lernen. Es geht überhaupt nicht darum, eine noch bessere statistische Methode zu entwerfen, um ein spezifisches Problem zu lösen. Vielmehr geh es darum, das Gehirn Stück für Stück nachzubauen und daraus zu lernen, um viele neue Themen flexibel lösen zu können. Mit diesem neuartigen Algorithmus können wir KI-Modelle generieren, die schneller, präziser, Zeit- und Ressourcen sparender in den entsprechenden Anwendungen umgesetzt werden können.

Wo gelingt es Ihnen nicht, präzise Ergebnisse zu erreichen? Oder sind Ihre Ergebnisse zu rechenintensiv und binden zu viele interne Ressourcen? Ist Ihr Trainingsaufwand zu hoch?

Wir arbeiten für Sie an der konkreten Lösung! Senden Sie uns direkt Ihre Anfrage

Hier finden Sie die komplette wissenschaftliche Publikation dazu.

#ki #künstlicheintelligenz #machinelearning #neocortex #intelligenz