Categories: Workspace

Fortschritt bei künstlichen neuronalen Netzen

Dem Informatiker Cornelius Weber von der TU Berlin ist im Rahmen seiner Dissertation ein wichtiger Fortschritt bei den künstlichen neuronalen Netzen gelungen. Er schaffte die Darstellung von inaktiven Neuronen in der sogenannten Boltzmann-Maschine, einem mathematischen Modell für die Vorgänge im Gehirn. Künstliche neuronale Netze dienen Forschern dazu nachzuvollziehen, wie Informationen im Gehirn verarbeitet werden. Vor allem die Wechselwirkung zwischen den Nervenzellen steht im Mittelpunkt der Experimente.

Um die Abläufe beim Lernen und Denken im menschlichen Gehirn besser verstehen zu können, setzen die Wissenschaftler eine Rechnerarchitektur ein, die sich in Struktur und Funktion an Nervenzellen orientiert. Dieses künstliche neuronale Netz wird die Boltzmann-Maschine genannt. Mit diesem mathematischen Modell wird im Computer simuliert, wie durch die Aktivität von Neuronen (also Nervenzellen) eine komplexe Umwelt erfasst wird. Wissenschaftler stellen beispielsweise bei einer Seh-Simulation Licht-Photonen, die auf das menschliche Augen einwirken, mit Zahlen dar. Eins steht für hell, 0 für dunkel, 0,5 für grau).

Wenn zahlreiche Nervenzellen durch Verbindungen untereinander verflochten sind, kann ein Impuls wie das Licht beim Sehempfinden weitergegeben werden. Im Computermodell benutzte man für die Aktivierungszustände der künstlichen Nervenzellen ausschließlich die mathematischen Werte +1 und -1. Cornelius Weber hat nun der Boltzmann-Maschine noch den Aktivierungszustand 0 hinzugefügt. Der Informatiker schaffte es, dass das Computermodell jetzt auch inaktive Neuronen darstellen kann. Somit können die Wissenschaftler ihre Forschung jetzt ausdehnen.

Eine der nächsten Fragen wird sein: Wie wird ein Bild im Gehirn dargestellt, wenn nur wenige Nervenzellen aktiv sind und Informationen weiterleiten? Warum werden bestimmte Neuronen aktiv, wenn sie einen bestimmen Helligkeitskontrast wahrnehmen? Dadurch können erstmals biologisch plausible Resultate erzielt werden, mit denen Lernmechanismen erklärt werden können.

Kontakt:
TU Berlin, Neuronale Informationsverarbeitung, Tel.: 030/3140

ZDNet.de Redaktion

Recent Posts

Agentforce Testing Center: Management autonomer KI-Agenten

Mit dem Tool können Unternehmen KI-Agenten mithilfe synthetisch generierter Daten testen, um präzise Antworten und…

4 Stunden ago

NiPoGi AM06 PRO Mini PC: Perfekte Kombination aus Leistung, Flexibilität und Portabilität

Kostengünstiger Mini-PC mit AMD Ryzen 7 5825U-Prozessor, 16 GB Arbeitsspeicher (RAM) und 512 GB SSD.

12 Stunden ago

Black Friday: Vorsicht vor schädlichen QR-Codes

Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.

3 Tagen ago

Black Friday: Zahl der ominösen Shopping-Websites steigt

Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.

3 Tagen ago

SmokeBuster bekämpft SmokeLoader

Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.

3 Tagen ago

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

4 Tagen ago