Moderne Computer sind trotz ihrer Leistungsfähigkeit nach Ansicht vieler Benutzer immer noch mit zahlreichen Problemen behaftet. Das fängt schon beim Einschalten an, das vielen zu lange dauert. Gute Smartphones und Tablets lösen einige dieser Probleme, etwa, indem sie auf Knopfdruck verfügbar sind. Allerdings bezahlen Anwender dafür mit anderen Einschränkungen und einem vergleichsweise hohen Preis. Schön wäre es daher, wenn die Stärken beider Produktkategorien zu geringen Kosten kombiniert werden könnten.
Eigentlich nichts anderes verspricht das Konzept des Memristors. Das ist letzendlich ein nicht-flüchtiger Speicherbaustein, der Zustandsinformationen auch ohne anliegende Spannung bewahrt. Dass es Memristoren geben müsste, hat Leon Chua, Professor an der Berkeley-Universität in Kalifornien, bereits in den 70er Jahren postuliert. Er legte in dem damals wenig beachteten und noch weniger verstandenen Papier „The Missing Memristor“ dar, dass es neben Widerstand, Kondensator und Spule ein viertes fundamentales, passives Bauelement geben müsse. Darauf kam er, weil er festgestellt hatte, dass die von Gustav Robert Kirchhoff schon im 19. Jahrhundert formulierten Kirchhoffschen Regeln bei nicht-linearen Schaltkreisen nicht mehr funktionierten. Die Folge: Diese waren dadurch unmöglich zu berechnen.
HP-Forscher Stanley Williams rechnet in drei Jahren mit marktreifen Geräten auf Basis von Memristor-Technologie (Bild: ZDNet).
Der Begriff „Memristor“ setzt sich aus Memory und Resistor (englisch für Widerstand) zusammen. Chua stellte ihn sich in seiner Funktionsweise ähnlich vor wie die Synapsen im menschlichen Gehirn. „Und ein Memristor kann auch in Maschinen ähnlich funktionieren: Er ist das richtige, um lernende Maschinen herzustellen. Mit ihm lassen sich Maschinen bauen, die sich ähnlich wie das menschliche Gehirn verhalten, aber wesentlich leistungsfähiger sind“, so Chua kürzlich während eines Besuch im Deutschen Museum in München.
Chua konzentrierte sich in den 70er Jahren darauf, die mathematischen Grundlagen zu legen. An die praktische Umsetzung ging damals weder er noch jemand anders. Das war auch kein Wunder, denn die noch junge Computerbranche war so damit beschäftigt, die bekannten und bewährten Technologien zu optimieren – was ihr ja auch in bewundernswerter Geschwindigkeit und mit enormen Profiten gelang -, dass einfach kein Bedarf am Memristor bestand.
So wichtig wie die Beherrschung des Feuers
Das ändert sich in den vergangenen Jahren, als bei einigen der bislang benutzten Technologien absehbar wurde, dass irgendwann die physikalischen Grenzen erreicht werden. Also machten sich Forschungsteams aller großen Firmen auf die Suche nach neuen Wegen. Dabei wurde Stanley Williams vom HP Information and Quantum Systems Lab durch einen Mitarbeiter eher zufällig auf Chuas Abhandlung aufmerksam gemacht. „Das hat uns, nachdem wir es ein paar Mal gelesen haben, die Augen geöffnet“, so Williams kürzlich bei einer Veranstaltung in München. „Wir waren damals und sind auch jetzt nicht die einzigen, die an nicht-flüchtigem Memory arbeiten. Dank Chua sind wir aber die einzigen, die verstanden haben, was ein Memristor wirklich ist.“
Selbstsicher vergleicht Williams die Situation mit Höhlenmenschen, die sich im Winter wärmen wollen: „Während die einen das Prinzip des Feuers verstanden haben, müssen andere, die es nicht kennen, eben frieren.“ Damit spielt Williams auf die langwierigen, aber bisher nicht von kommerziellem Erfolg gekrönten Bemühungen beispielsweise von IBM und Infineon bei der Entwicklung von MRAM sowie das Engagement von Intel und Samsung bei PCRAM an. Eine Erfindung mit der Beherrschung des Feuers durch den frühen Menschen gleichzusetzen, fordert natürlich Widerspruch heraus. Was also kann Memristor, um diesen Vergleich zu rechtfertigen?