Peer-to-Peer oder die Kunst, Informationen auszutauschen
Peer-to-Peer ist vor kurzem durch das Phänomen Napster populär geworden, doch ist es nicht die jüngste Entwicklung unter den Netzarchitekturen. Arpanet, der Ahn des Internet, funktionierte bereits nach diesem Prinzip. Eine Rückkehr zu den Ursprüngen, die mit neuen technologischen, kommerziellen und juristischen Problemstellungen einhergeht.
Peer-to-Peer, wörtlich „von gleich zu gleich“, ist ein System zum direkten Austausch von Ressourcen zwischen vernetzten Rechnern. Durch Napster populär geworden, eine amerikanische Website, über die man MP3-Dateien auf seinen Computer herunterladen konnte, die von Millionen angeschlossenen Computer kamen, hat Peer-to-Peer zuerst eine Debatte über geistiges Eigentum entfacht, bevor es als „die“ Internet-Technologie, wenn nicht gar als „Killer-Applikation“ betrachtet wurde.
In einer Peer-to-Peer-Architektur können Computer, die normalerweise als Client (Gastrechner) in einem Client/Server-Modell fungieren, zugleich als Client und als Server agieren, also wie Peers („Gleiche“). Diese Funktionsweise ermöglicht den direkten Austausch von Programmen, Dateien (ob Audio, Video oder andere), ja sogar das Bereitstellen von Rechenleistung der Maschinen oder das Vermieten von leerem Festplattenplatz. Ein derartiges System verringert die Last auf den Servern und ermöglicht es, spezielle Dienste zweckmäßiger zur Verfügung zu stellen.
Zwar wurde Peer-to-Peer häufig als Revolution dargestellt, ist aber nicht neu, denn es handelt sich dabei um ein Konzept, das so alt ist wie die vernetzte Welt selbst: das verteilte Rechnen. In der Tat haben schon vor 30 Jahren zahlreiche Unternehmen an Architekturen gearbeitet, die man heute als Peer-to-Peer bezeichnen würde. Ursprünglich hatte man das Internet als Peer-to-Peer-System entworfen. Das Ziel des ersten Arpanet-Netzes war es, den Universitäten den Austausch von Ressourcen quer durch die USA zu ermöglichen. Lange bevor es im wesentlichen zu einer Client/Server-Struktur wurde, war das Internet ein Kommunikationsmedium, das für den Austausch von Ressourcen zwischen als gleichartig behandelten vernetzten Rechnern entworfen worden war.
Bis 1994 verfügte das Internet nur über ein einziges Modell der Vernetzung. Die Rechner sollten kontinuierlich am Netz angeschlossen sein und eine statische und permanente IP-Adresse haben. Das Domain Name System (DNS) war für diese Umgebung vorgesehen, und die Änderung einer IP-Adresse galt als selten oder ungewöhnlich. Mit der Erfindung von Mosaic, dem ersten Web-Browser, wurde ein neues Modell geboren. Um einen Web-Browser zum Funktionieren zu bringen, musste ein PC über ein Modem und mit einer eigenen IP-Adresse ans Netz angeschlossen sein. Diese Veränderung hat einen neuen Modus der Vernetzung hervorgebracht, denn die PCs konnten sich jederzeit und häufig an das Netz anmelden und es auch wieder verlassen. Um dem Mangel an verfügbaren IP-Adressen abzuhelfen, haben die ISPs (Internet Service Provider) die Adressen dynamisch zugeteilt, jedem PC eine andere IP-Adresse, die bei jeder neuen Session neu vergeben wurde. Einige Jahre lang hat dieses Modell gut funktioniert und funktioniert noch immer. Doch im Laufe des Jahres 2000 hat Peer-to-Peer die Karten neu verteilt, und das vielleicht irreversibel.
Den Inhalt dezentralisieren
Statt ihre Computer nur zum Surfen im Internet oder zum Versenden von E-Mails zu verwenden, haben Millionen Cybernauten damit begonnen, ihre Rechner in komplexerer Weise zu nutzen. Sie arbeiten sogar zusammen, um ihre Rechner in kraftvolle Motoren für die Forschung zu verwandeln, in virtuelle Superrechner oder Dateisysteme. Diese neuen Praktiken wurden dank der gesteigerten Leistung der PCs, einer immer größeren verfügbaren Bandbreite und immer größerer Speicherkapazitäten möglich.
Die Gesamtheit der an das Internet angeschlossenen Rechner verfügt über mehr als 10 Mrd. MHz Prozessorleistung, die sich auf über 300 Mio. User verteilen. Durch Peer-to-Peer kann nicht nur der Inhalt dezentralisiert werden, sondern auch die Administration und die Kosten.
Allerdings entsprechen Applikationen vom Typ Napster nicht im eigentlichen Sinn der Definition von Peer-to-Peer, denn hier werden zentrale Server benutzt, um Pointer und Adressen zu verwalten. Für Profis in diesem Bereich muss eine Peer-to-Peer-Applikation drei Kriterien erfüllen: die Fähigkeit, die User darüber zu informieren, wann eine Ressource online ist; die Fähigkeit, nur die verfügbaren Ressourcen zu erkennen, sowie die Fähigkeit, diese Ressourcen trotz ihrer kurzlebigen Präsenz im Netz zu verwalten, egal ob der User online ist oder nicht.
Eine zunehmend asymmetrische Architektur
Nun hat die steigende Zahl der Cybernauten dazu geführt, dass die Architektur des Netzes mit zahlreichen Servern und Millionen Client-Rechnern zunehmend asymmetrisch wurde. Damit wurde Peer-to-Peer immer schwieriger, denn Firewalls, dynamische IP-Adressen und das Adress-System NAT (Network Address Translation) unterbinden den Kontakt zwischen den Host-Rechnern. Inzwischen haben die neuen Peer-to-Peer-Applikationen aber daraus gelernt und verfügen über innovative Eigenschaften, die die Infrastruktur des neuen Webs ausnutzen.
Was sich tatsächlich geändert hat, ist die Eigenart der Knoten (PCs, die an das Internet angeschlossen sind) dieser Peer-to-Peer-Systeme und die Position der Knoten im Netz: am Rand, vom DNS-System abgeschnitten, weil sie keine statische IP-Adresse haben.
Insgesamt ist Peer-to-Peer am ehesten für einen Typ von Applikationen geeignet, die in der Lage sind Ressourcen zu verwenden, die am Saum des Internet verfügbar sind. Napster und ähnliche Websites vergrößern das Volumen der – bislang ungenutzten – Ressourcen, indem es mit Millionen vernetzter Terminals arbeitet. Das führt zu neuen Anforderungen: Die Entwickler müssen robuste Anwendungen schaffen, die in der komplexen Umgebung des Internet funktionieren, und die Techniker müssen es sich zur Aufgabe machen, ein Netzwerk zu konstruieren, das die neuen Peer-to-Peer-Applikationen unterstützen kann. Das Web und die Applikationen müssen so entworfen werden, dass sie im Tandem funktionieren.
Dieses Netzwerk-Modell wäre dann leistungsfähiger als zentralisiert arbeitende Applikationen, doch wird es aus rechtlichen, wirtschaftlichen und technischen Gründen infrage gestellt. Es bleibt noch ernorm viel zu tun, um diese Technologie zu optimieren.
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…
Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…
Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.
Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…