Google hat auf seiner Entwicklerkonferenz Google I/O den Clouddienst Compute Engine vorgestellt. Laut Urs Hölzle, Senior Vice President der Sparte Technical Infrastructure, ist Compute Engine eine IaaS-Plattform (Infrastructure-as-a-Service) mit vielfältigen Storage-Optionen. Der Dienst stehe jedem, der eine große Rechenleistung benötige, über virtuelle Maschinen zur Verfügung.
„Leistung und Gegenwert dieser Infrastruktur sind einmalig in der Branche“, sagte Hölzle. Kunden profitierten von Googles Rechenzentren und Erfahrung in diesem Bereich. Compute Engine liefere pro Dollar bis zu 50 Prozent mehr Rechenleistung als andere Cloud-Anbieter. „Wir haben zehn Jahre lang hart daran gearbeitet, die Kosten des Computing zu senken, und wir geben diese Einsparungen an Sie weiter.“
Google bietet Cloud Compute in Form von virtuellen Linux-Maschinen mit 1, 2, 4 oder 8 Kernen und 3,75 GByte RAM pro Kern an. Darüber hinaus stehen pro Kern 420 GByte Speicherplatz zur Verfügung. Der Mietpreis für ein System mit einem Kern beträgt 0,145 Dollar pro Stunde. Für eine Maschine mit 8 Kernen verlangt Google je Stunde 1,16 Dollar.
Daten können wahlweise auf einem lokalen Speicher oder in Googles Cloud abgelegt werden. Virtuelle Maschinen lassen sich zudem zu Clustern mit konfigurierbaren Firewalls verbinden. Die Einrichtung und Verwaltung erfolgt über Skripte per Eingabeaufforderung oder Weboberfläche.
Mit Amazons Clouddiensten kann Googles Compute Engine zumindest zum Start nicht mithalten. Neben Rechenleistung und Storage bietet Amazon beispielsweise auch Datenbanken, Vorlagen zur Erstellung eigener Cloud-Services und Windows-Instanzen an. Zudem hat Amazon einen Vorsprung bei Enterprise-Kunden sowie Anbindungen an Anwendungen von Oracle und SAP.
[mit Material von Larry Dignan, ZDNet.com]
Tipp: Sind Sie ein Fachmann in Sachen Cloud Computing? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Hinweis: Artikel von ZDNet.de stehen auch in Google Currents zur Verfügung. Jetzt abonnieren.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…