Erlanger Forscher arbeiten mit interdisziplinären Ansätzen, die Physik und Hirnforschung verbinden, um neue Perspektiven in der KI-Entwicklung zu eröffnen.
Rauschen - also die Überlagerung von Signalen mit zufälligen Schwankungen - erschwert in aller Regel die Interpretierbarkeit von Informationen, so die Friedrich-Alexander-Universität Erlangen-Nürnberg in einer Pressemitteilung. Wer schon einmal versucht hat, bei einem stark verrauschten Radiosender die Nachrichten zu verfolgen, weiß das aus eigener Erfahrung. Neuronale Netzwerke scheinen aber sogar davon zu profitieren, wenn man den zu verarbeitenden Daten eine nicht zu große Menge Rauschen beimischt.
Das zeigt zumindest eine aktuelle Studie, die Physiker, KI-Forscher und Neurowissenschaftler der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) und des Uniklinikums Erlangen durchgeführt haben. Demnach verhindern die Zufalls-Schwankungen, dass KI-Algorithmen sich voreilig auf die falsche Lösung versteifen. Auch für die korrekte Funktion des Gehirns ist Rauschen vermutlich essentiell. Die Ergebnisse sind nun in der Fachzeitschrift „Frontiers in Complex Systems“ erschienen. (https://doi.org/10.338...24.1479417)
Im Gehirn sind viele Milliarden Nervenzellen über Billionen von Kontaktstellen miteinander verbunden und tauschen darüber Informationen aus. Durch Lernprozesse werden manche dieser Kontakte verstärkt und andere eliminiert. Dadurch entstehen mit der Zeit komplexe Netzwerke, die beispielsweise Informationen wie Sprache oder Bilder sehr treffsicher interpretieren können. Wenn wir ein Möbelstück sehen, wissen wir daher in der Regel sofort, ob es sich um einen Stuhl oder ein Bett handelt.
Algorithmen der Künstlichen Intelligenz sind so leistungsfähig, weil sie grob die Funktionsweise des Gehirns simulieren. Allerdings sind die zugrunde liegenden Modelle häufig nur lose vom Gehirn inspiriert. So bestehen künstliche neuronale Netze in der Regel aus mehreren hintereinandergeschalteten Schichten, die keine Rückkopplungen enthalten. Jede davon modifiziert die eingehende Information und gibt sie dann an die jeweils nächste Schicht weiter.
„Im Gehirn ist das anders - dort fließen auch ständig Informationen an die vorhergehenden Schichten zurück“, erklärt Privatdozent Dr. Patrick Krauss. „Durch diese Rückkopplung berücksichtigen sie gewissermaßen nicht nur den aktuellen Input, den sie bekommen, sondern auch, welche Informationen zuvor in sie hineingeflossen sind. Und das macht sie für bestimmte Aufgaben, in denen es um zeitliche Zusammenhänge geht, besonders leistungsfähig.“
Krauss ist Physiker, Neurowissenschaftler und KI-Forscher an der FAU und Leiter der „Cognitive Computational Neuroscience“-Gruppe am Lehrstuhl für Informatik 5 (Mustererkennung). „In der Fachwelt nennt man diese Eigenschaft Rekurrenz“, erklärt er. „Auch sie lässt sich im Computer nachbilden. In unserer Arbeit haben wir solche rekurrenten neuronalen Netze untersucht.“ Die vorteilhafte Wirkung von Rauschen auf diese Netzwerke lässt sich sehr simplifiziert an einem Beispiel veranschaulichen:
Wenn man in Online-Shops die Versandadresse eingibt, dann assistiert die Webseite oft dabei, indem sie - basierend auf den bereits eingetippten Buchstaben - die dazu passenden Ortsnamen vorschlägt. Sie nutzt also Vorinformationen, um zu einer treffsicheren Vorhersage zu gelangen. Das Problem dabei: Wenn man sich nur einmal vertippt (z.B. „N-ü-r-m“ statt „N-ü-r-n“), bietet das System den korrekten Namen (Nürnberg) gar nicht mehr an - es steckt in einer Sackgasse, in der keine richtige Lösung mehr möglich ist.