Innerhalb der nächsten Jahrzehnte haben Technik, Wissenschaft und Gesellschaft der entwickelten Länder ein gigantisches Projekt zu bewältigen: Sie müssen ihre Stromnetze so umbauen, dass diese mit einer Vielzahl von Erzeugern und Verbrauchern sowie einem stärker als bisher schwankenden Energieangebot umgehen können. Denn Sonne und Wind richten sich nicht nach den Wünschen der Verbraucher.
Hier kommen der Natur abgeschaute Algorithmen ins Spiel: Sie sollen intelligentes Verhalten in komplexen, unsicheren und sich schnell verändernden Umgebungen zeigen. Das Stromnetz braucht nämlich, um unter den künftigen Bedingungen seinen Zweck erfüllen zu können, eine Reihe neuartiger Eigenschaften: Es muss fehlertolerant und selbstheilend sein, zahlreiche dezentrale Energiequellen und -senken mit unregelmäßigem In- und Output integrieren, dynamisch optimierbar sein, Datensicherheit bieten, auf Angebots- und Nachfrageimpulse reagieren und allen Akteuren rechtzeitig Informationen bereitstellen. Überdies soll es natürlich möglichst die gleich hohe Stromqualität bieten wie heute.´
Im Detail geht es um Aufgaben wie diese: Wie lässt sich verhindern, dass das Stromnetz zu sehr belastet wird, wenn gleichzeitig sehr viele Elektrofahrzeuge geladen werden? Wie lässt sich die Unzahl dezentraler Energieerzeuger gleichzeitig unter Echtzeitbedingungen so steuern, dass weder die Servicequalität des Stromnetzes leidet noch dass es zu Überlastungen und Spannungseinbrüchen kommt? Wie kann man in Windfarmen die Leistung und Ausrichtung der einzelnen Turbinen so regeln, dass die Gesamtleistung des Feldes optimal ist? Wie kann man störende Oszillationen oder Spannungsspitzen, die sich unter ungünstigen Bedingungen im Netz bilden und zu Störungen führen können, in Echtzeit direkt am Entstehungsort dämpfen, so dass sie das Netz möglichst wenig beeinträchtigen?
Damit sind die bisher verwendeten Software-, Steuer- und Regeltechnologien überfordert. Abhilfe sollen mehrere Ansätze bringen:
Jedes dieser Themen ist an sich nicht völlig neu. Doch wegen der Komplexität der Aufgaben geht man nun dazu über, mehrere von ihnen zu kombinieren. Ein Vorreiter dieses Verfahrens ist Ganesh Kumar Venayagamoorthy, Professor für Elektro- und Computertechnik im Bereich Wissenschaft und Technologie der Universität von Missouri. Er ist auch Gründer und Direktor des dortigen Labors für Echtzeit-, Energie- und intelligente Systeme. Venayagamoorthy unterweist seit 2004 Studenten in Semesterkursen gleichzeitig in allen fünf Technologien und darin, mindestens zwei in einem Projekt zu kombinieren.
In Deutschland wird etwa an der Hochschule Darmstadt oder am KIT (Karlsruher Institut für Technologie) daran geforscht, der Natur abgeschaute intelligente Algorithmen fürs Smart Grid einzusetzen.
Inzwischen gibt es auch schon erste, mehr oder weniger experimentelle Anwendungen: So sollen neuartige neuronale Netze helfen, Last und Erzeugung im Stromnetz vorherzusagen. Allerdings verwendet man hier oft nicht den klassischen Ansatz, bei dem das Lernen direkt im operativen neuronalen Netz erfolgt. Bei den neuen ACD-Algorithmen (Adaptive Critical Design), werden im Gegensatz zu den bisher üblichen Verfahren neuronaler Netze die operative und die lernende Instanz (der sogenannte Kritiker) getrennt und mit anderen Mechanismen kombiniert.
Andere Systeme sollen die Netzspannung stabil halten und aus einer Unmenge von Daten auf den Echtzeitzustand des Netzes schließen. Dazu braucht man zum einen Messdaten aus einem großen geografischen Umfeld, deren Transportverzögerung in die Algorithmen einbezogen werden muss. Das ist eine Aufgabe, die sogenannte WACS (Wide Area Control Systems) lösen sollen.
Fuzzy-Mechanismen ziehen dann wiederum Schlüsse aus diesen Daten. Wartungsintervalle sollen mit Hilfe von Mechanismen der Schwarmoptimierung ermittelt werden. Und letztere werden wohl auch eingesetzt, um dafür zu sorgen, dass der massenweise Einsatz batteriebetriebener Vehikel beziehungsweise deren Ladevorgänge nicht zu permanenten Netzstörungen führt.
Insgesamt ist zu hoffen, dass die Ergebnisse der Forschungen neue Impulse für viele Gebiete bringen. Immer da, wo es darum geht, unter unübersichtlichen, sich ständig ändernden Bedingungen mit unvollständigem Wissen Systeme störungsfrei zu steuern oder gute Entscheidungen zu treffen, können sie nützlich sein – handle es sich nun um Produktionsprozesse oder die Steuerung intelligenter Städte.
OutSystems-Studie: 62 Prozent der Befragten haben Sicherheits- und Governance-Bedenken bei Softwareentwicklung mit KI-Unterstützung.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…