Dieser Beitrag erschien ursprünglich auf .
Einige Jahre lang hatte der Begriff „Private Cloud“ eine negative Konnotation. Aber wie wir wissen, ist Technologie eher ein Rad als ein Pfeil, und wie gerufen erhält die Private Cloud jede Menge Aufmerksamkeit, und das alles nur positiv. Die Statistiken sprechen eine klare Sprache: In der 2023 Infrastructure Cloud Survey von Forrester gaben 79 % der 1.300 Unternehmensentscheider an, dass sie Private Clouds implementieren. Laut einer
Der Hauptgrund für die Rückführung von Unternehmen sind die Kosten. Durch die Rückführung sparen sie bis zu 70 %. Dies wurde öffentlich von Unternehmen so unterschiedlich wie
Dieses Betriebsmodell definiert eine bestimmte Architektur und immer wieder macht diese Architektur den modernen Datensee möglich. Natürlich gibt es auch andere Architekturen, aber wenn Unternehmen die private Cloud zum Aufbau ihres modernen Datensees verwenden, zahlen sie nur für das, was sie benötigen. Wenn ihr Unternehmen wächst, ist die Skalierung so einfach wie das Hinzufügen weiterer Ressourcen zu einem Cluster. Eine Neugestaltung ist nicht erforderlich.
Ein moderner Data Lake ist zur Hälfte Data Warehouse und zur Hälfte Data Lake und verwendet Objektspeicher für alles. Die Objektspeicherschicht ist softwaredefiniert, skalierbar, Cloud-nativ und leistungsstark. Die Leistung kann durch die Auswahl der
Die Verwendung von Objektspeichern mit dem Data Lake ist Standard, die Verwendung mit dem Data Warehouse ist neu und wird durch Open Table Formats (OTFs) wie Apache Iceberg, Apache Hudi und Delta Lake ermöglicht. Es gibt viele Details zu dieser Architektur, die über den Rahmen dieses Artikels hinausgehen. Dafür empfehle ich die Lektüre von Keith Pijanowskis vollständigem
Hohe Leistung: Während die Private Cloud auf Kapazität ausgelegt werden kann, zielt die moderne Private Cloud auf skalierbare Leistung ab. Diese Architektur priorisiert Tools, die Geschwindigkeit und Effizienz betonen. Wie Jeff Bezos sagt: Wer möchte mehr bezahlen und länger warten, um es zu bekommen? Hier gelten die gleichen Prinzipien: Wer möchte es langsamer?
Entkoppelte Datenverarbeitung und Speicherung: Durch die Trennung dieser Komponenten erhalten Sie mehr Flexibilität und Skalierbarkeit, sodass die von Ihnen gewählte Infrastruktur, Dienste und Tools in ihren jeweiligen Fachgebieten herausragende Leistungen erbringen können.
Offene Standards: Offene Standards fördern nicht nur die Interoperabilität, sondern machen Ihre Investitionen auch zukunftssicher. Dies umfasst nicht nur Open-Source-Lösungen, sondern auch offene Tabellenformate, wie wir noch untersuchen werden. Bauen Sie aus diesen Gründen keine private Cloud mit einem Speichergerät auf (und auch nicht, weil sie nie Cloud-nativ sein werden).
Kompatibilität mit RESTful-APIs: Interkonnektivität ist ein Muss. Ihre Tools sollten eine gemeinsame Sprache verwenden, wobei S3 als Lingua Franca für Cloud-Speicher dienen sollte. Bauen Sie Ihre private Cloud deshalb nicht mit einer POSIX-zentrierten Lösung auf, selbst wenn diese behauptet, S3 zu unterstützen. Entscheiden Sie sich für das Original.
Softwaregesteuert/Infrastruktur als Code: Automatisieren Sie die Orchestrierung Ihrer Infrastruktur und überlassen Sie sie Kubernetes. So können Sie die Komplexität der manuellen Verwaltung abstrahieren und eine schnelle und effiziente Skalierbarkeit erreichen.
Verbesserte Sicherheit und Compliance: Da private Clouds eine dedizierte Infrastruktur bieten, bieten sie mehr Kontrolle über Daten und verbesserte Sicherheitsmaßnahmen. Dies ist insbesondere für Branchen von Vorteil, in denen vertrauliche Informationen verarbeitet werden, wie etwa im Finanz- und Gesundheitswesen.
Einhaltung gesetzlicher Vorschriften: Diese Architektur kann die Einhaltung gesetzlicher Vorschriften unterstützen, indem sie anpassbare Sicherheitseinstellungen und Prüfkontrollen bereitstellt, um bestimmte Industriestandards zu erfüllen.
Bringen Sie Ihre private Cloud ins Spiel
Wir haben eine Reihe von Ansätzen zur Optimierung der privaten Cloud kennengelernt. Alle können funktionieren. Es hängt wirklich vom Unternehmen und dem Anwendungsfall ab.
Zeitlich begrenzter Hybridansatz: Der zeitlich begrenzte Hybridansatz verwandelt die öffentliche Cloud im Wesentlichen in einen Cold Storage und baut Ihren Private-Cloud-Footprint über einen bestimmten Zeitraum (Monate/Quartale, nicht Jahre) aus. Dies beinhaltet den Kauf und die Konfiguration Ihrer Infrastruktur und Ihres Software-Stacks in der Private Cloud. Dann richten Sie Ihre Datenpipeline auf die Private Cloud aus, nicht auf die öffentliche Cloud. Es kann einen Zeitraum geben, in dem Sie beides tun. Das Ziel ist jedoch, die öffentliche Cloud als mehrstufigen Cold Storage und die private Cloud als Hot Storage zu verwenden. Im Laufe der Zeit wird die öffentliche Cloud von Cold zu Frozen Storage, während die private Cloud zum primären und dominierenden Speichertyp wird.
Vollständige Rückführung : Es gibt Fälle, in denen es keine Option ist, die Anwendungen und Daten sowohl in der öffentlichen als auch in der privaten Cloud zu behalten. In diesen Fällen müssen Sie sich von Ihrem Cloud-Anbieter trennen. Das ist schwierig und selbst durch die Abschaffung der Ausstiegsgebühren wird es schmerzhaft (im Kleingedruckten steht im Grunde, dass alles weg muss, um eine Ermäßigung der Ausstiegsgebühren zu erhalten). Es ist durchaus machbar; es erfordert nur etwas mehr Planung und etwas mehr geschäftliche Reibung. Stellen Sie in diesem Fall Ihre Colocation- oder private Cloud und Ihren Anwendungsstapel bereit. Sichern Sie dann den Datentruck oder leasen Sie das Netzwerk, um die Daten in Ihre private Cloud-Dateninfrastruktur zu übertragen. An diesem Punkt sind Sie frei, aber rechnen Sie damit, für ein oder zwei Monate das Doppelte zu zahlen, wenn Sie der Typ sind, der sich absichert. Eines der führenden Streaming-Unternehmen verfolgte diesen Ansatz, als es die öffentliche Cloud verließ. Es hat ein halbes Exabyte in die neue private Cloud verschoben, einschließlich aller Filme, Shows, Dokumentationen usw. Der Prozess dauerte etwa drei Quartale. Die Auszahlung war jedoch enorm und die Komplexität wurde für das Team, das den Dienst verwaltet, erheblich reduziert. Sie genossen auch den Nebeneffekt eines netten Pop-Ins „
Private Greenfield-Cloud:
Dies ist ein ziemlich unkomplizierter Vorschlag, und im Allgemeinen muss alles neu sein. Das Projekt ist neu, die Projektdaten sind neu (oder relativ neuartig) oder werden aus einer Quelle generiert, die gerade online geht (wie einer riesigen Fertigungsanlage oder einem neuen Cloud-Video-on-Demand-Dienst). Hier bemessen Sie die Arbeitslast – Sie können sie sogar in der öffentlichen Cloud testen –, aber die Idee ist, dass sie von Anfang an in der privaten Cloud ausgeführt wird. Wir sehen dies recht häufig bei KI-Dateninfrastrukturen. Die ersten Experimente finden in der öffentlichen Cloud statt. Die Daten sind nicht so aussagekräftig. Die GPU-Verfügbarkeit ist ziemlich gut. Nichtsdestotrotz weiß das Unternehmen, dass die Arbeitslast für die Produktion in der privaten Cloud liegen muss – sowohl aus Skalierbarkeitsgründen als auch aus Gründen der Sicherheit, Privatsphäre und Kontrolle. Einer der weltweit führenden Automobilhersteller hat seine Initiative für vollständig autonomes Fahren kürzlich von einem regelbasierten System auf ein System umgestellt, das auf dem Verhalten tatsächlicher Fahrer basiert.
Private Brownfield-Cloud:
Wir sind ehrlich: Wir sehen das, aber wir sind nicht begeistert davon. Dazu gehört der Versuch, Hochleistungs-Workloads auf Festplatten auszuführen, um MinIO zu überlagern
Die Anderen:
Es gibt zwei weitere Szenarien, die weniger häufig vorkommen, aber dennoch berücksichtigt werden sollten. Das eine ist der Hybrid-Burst-Ansatz und das andere der Ansatz mit externen Tabellen. Beide beziehen sich auf die Hybrid-Option, sind aber möglicherweise nicht zeitgebunden. Beim Hybrid-Burst-Ansatz pflegen Sie eine private Cloud, während Sie sie so gestalten, dass sie nahtlos in die öffentliche Cloud erweitert oder „geburstet“ werden kann, um mehr Flexibilität zu bieten. Diese Strategie wird häufig angewendet, um zusätzliche GPU-Kapazität zu nutzen oder bestimmte Cloud-Dienste zu verwenden. In diesem Modell werden bestimmte Aufgaben vorübergehend zur Verarbeitung in die öffentliche Cloud übertragen. Sobald die Analyse abgeschlossen ist, werden die Ergebnisse an die private Cloud zurückgesendet und die Ressourcen der öffentlichen Cloud werden dann außer Betrieb genommen. Wir haben einen großen Kunden aus dem Finanzdienstleistungsbereich, der dies mit Kreditrisiko- und Marktrisikoberechnungen tut. Er verwendet die öffentliche Cloud für einige Rechenvorgänge und kombiniert sie mit einem privaten Cloud-Datensee, der MinIO und Dremio verwendet. Das Schöne am Cloud-Betriebsmodell ist, dass die Architektur Vorgänge an beiden Orten unterstützen sollte. Es ist praktisch eine Einbahnstraße.
Abschließende Gedanken und Ratschläge
Wir waren im Laufe der Jahre an vielen dieser Rückführungen/Neubauten in die Private Cloud beteiligt. Eine Sache, die die Teams überrascht, ist die erneute Verwaltung der Hardware. In der Cloud ist das transparent. DevOps und Site Reliability Engineers interagieren nur auf API-Ebene mit der Infrastruktur. Wenn eine VM Probleme macht, beenden Sie sie und starten Sie an ihrer Stelle eine neue. Leider müssen wir in der neuen Private Cloud die vorhandene Hardware zum Laufen bringen, anstatt sie einfach zu verschrotten und neue zu kaufen.
Colocation bietet einen Mittelweg zwischen vollständig lokaler Infrastruktur und der öffentlichen Cloud und bietet die Vorteile beider Welten. Mit Zugang zu erstklassigen Netzwerken und der Nähe zu den öffentlichen Cloud-Anbietern ermöglichen Colocation-Anbieter Verbindungen mit geringer Latenz und Hybrid-Cloud-Setups, die eine effiziente Datenübertragung und -verarbeitung ermöglichen. Diese Flexibilität und das Potenzial für erfolgreiche Hybrid-Cloud-Bereitstellungen sind für Unternehmen, die ihre Abläufe optimieren und einen Wettbewerbsvorteil aufrechterhalten möchten, von entscheidender Bedeutung. Weitere Informationen dazu finden Sie in unserem