Sie sind hier: Startseite » Markt » Tipps und Hinweise

Das Private-Cloud-Modell ist flexibel


Immer mehr Unternehmen setzen auf die Private Cloud, um die Nachteile der Public Cloud zu vermeiden
Was müssen Unternehmen bei der Planung der Speicher-Infrastruktur einer Private Cloud also berücksichtigen?

Von Peter Mahlmeister, Country Manager DACH, Tintri

(19.06.15) - Verfechter der Cloud-Technologie haben jahrelang darum gekämpft, die Öffentlichkeit von der Wolke zu überzeugen. Auf den ersten Blick sprachen die Fakten für sich: keine bedeutenden Investitionen, volle Flexibilität und globale Verfügbarkeit in einer Welt, aus der das Internet nicht mehr wegzudenken ist. Trotzdem stehen viele Unternehmen der Cloud weiterhin skeptisch gegenüber. Kann die Private Cloud liefern, was die Public Cloud nur versprochen hat?

Sicherheitsverletzungen, Hacker-Angriffe und Ausfallzeiten - die Public Cloud hat für eine Menge negativer Schlagzeilen gesorgt. Dass sich Cloud Computing-Technologien in Deutschland nur sehr langsam durchsetzen, ist gut dokumentiert. In keinem Industriestaat sind sie so wenig verbreitet wie hier. So wurde die Cloud nur bei gut einem Dritten der kleinen und mittleren Unternehmen Deutschlands eingeführt. Das sind genau halb so viele Unternehmen wie im Schwellenland Indonesien. Trotz aller Unbekannten können die Vorteile von Cloud-Technologie nicht ignoriert werden. Und deutsche Unternehmen wissen, dass sie besser früher als später in die Cloud investieren sollten, um zukünftig die Nase vorn zu haben.

Cloud-Akzeptanz: Hase und Igel
Die Gründe, warum die Public Cloud in Deutschland bislang nicht wirklich angenommen wurde, sind ebenfalls gut dokumentiert: Offensichtliche Sicherheitsprobleme, Compliance-Bedenken bei multinationalen Unternehmen, die mangelnde Flexibilität einer Public-Cloud-Einheitslösung und die versteckten Kosten machten sie bei näherer Betrachtung weniger ansprechend.

Ist dies also ein Fall von Hase und Igel? Bisher zahlt sich die Vorsicht deutscher Unternehmen offenbar aus – die Cloud der ersten Generation, die Public Cloud, brachte einige Fallstricke mit sich, die den Hasen dieser Welt Probleme bescherten. Mittlerweile ist jedoch Cloud-Technologie, die den Anforderungen moderner Unternehmen gerecht wird, verfügbar: Die Private Cloud befindet sich innerhalb der Firewall des Unternehmens und somit unter der Kontrolle der IT-Abteilung.

"Mit der richtigen Technologie erfüllen Private Clouds alle Versprechen der Public Cloud, bieten jedoch ein höheres Maß an Sicherheit, Kontrolle und Flexibilität"
Peter Mahlmeister, Tintri

Die Private Cloud gibt Unternehmen die Kontrolle zurück
Der Hauptgrund, aus dem sich Unternehmen für die Private Cloud entscheiden, ist der Wunsch, die volle Kontrolle über ihre Daten zu behalten. Mit der Public Cloud war dies noch nie möglich, sodass die Compliance nicht auf jeder Stufe gewährleistet werden konnte.

Die Ausführung geschäftskritischer Anwendungen in Echtzeit auf globaler Ebene ist seit jeher ein guter Grund, diese in der Cloud zu implementieren. Die Realität ist, dass die meisten Public Clouds speziell angepasste Anwendungen erfordern. Die meisten Unternehmen sind jedoch einzigartig und nutzen maßgeschneiderte Anwendungen. Die Umcodierung dieser Anwendungen, um sie an die Public Cloud anzupassen, oder ihre Ersetzung durch neue Lösungen ist keine gute Idee. Das Private-Cloud-Modell unterstützt hingegen einen flexiblen Mix aus Anwendungen, unabhängig davon, wann der Code geschrieben und welche Programmiersprache verwendet wurde.

Es scheint fast, als übertrumpfe die Private- die Public-Version in jeder Hinsicht. Im Wesentlichen ist die Private Cloud für Unternehmen jedoch ein guter Kompromiss.

Private Cloud – mit der richtigen Speicherlösung ein guter Kompromiss
Im Gegensatz zur Public Cloud erfordert die Private Cloud Investitionen in die IT-Infrastruktur. Eine der wichtigsten und kostenintensivsten Komponenten einer Cloud-Infrastruktur ist Speicher. Was müssen Unternehmen bei der Planung der Speicher-Infrastruktur einer Private Cloud also berücksichtigen?

Leider kann der Speicher zum Performance-Engpass werden. Um Anwendungen in Echtzeit zu unterstützen, muss er eine vorhersagbare und konsistent schnelle Leistung liefern. Viele Unternehmen greifen daher auf Flash-Speicher zurück. Doch mit Flash allein ist keine Lösung und schiebt das Problem nur auf die lange Bank. Der Schlüssel liegt darin, jede virtuelle Maschine (VM) und Anwendung mit einer eigenen "Spur" auszustatten, um eine hohe Performance zu gewährleisten. Altsysteme sind unter Umständen mit schnellem und teurem Flash ausgerüstet, können diesen jedoch nicht ausschöpfen, da sie mit überkommenen Speicherkonzepten wie LUNs (Logical Unit Numbers), RAID und Datenträgern arbeiten. Die optimale Speicherlösung erlaubt es Administratoren, direkt mit virtuellen Laufwerken (Vdisk) und VMs zu arbeiten. Sie ermöglicht es Virtualisierungs- oder Cloud-Administratoren zudem, ihren eigenen Speicherbedarf zu verwalten, während Speicherexperten sich auf übergreifende, wichtigere Aktivitäten konzentrieren können.

Wie bei allen IT-Investitionen machen sich Planung und die Prüfung der besten verfügbaren Optionen insbesondere in der Speicherbranche bezahlt, in der sich die Entscheidung für eine Lösung unmittelbar auf die Investitionsausgaben und über Jahre hinweg auf die Betriebskosten auswirken wird. Die Kosten pro Gigabyte sind von Belang, doch der Preis pro VM ist wichtiger, denn VMs, die man im Laufe der Jahre hinzufügt, werden die Ausgaben in die Höhe treiben.

Vorteile der Public Cloud – ohne die damit verbundenen Schwachpunkte
Public-Cloud-Architekturen versprachen Effizienzgewinne dank gemeinsam genutzter Ressourcen, Utility Computing und flexibler Skalierbarkeit. Diese Vorteile waren verlockend, jedoch zeitweise illusorisch, und das Zögern der deutschen Kunden war berechtigt. Mit der richtigen Technologie erfüllen Private Clouds alle Versprechen der Public Cloud, bieten jedoch ein höheres Maß an Sicherheit, Kontrolle und Flexibilität. Mit Blick auf die Implementierung einer Private Cloud sollten vorausschauende Unternehmen ausschließlich in eine Plattform investieren, die Anwendungen und VMs anhand intelligenter, unkomplizierter und kosteneffizienter Skalierung unterstützt.
(Tintri: ra)

Tintri: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

  • Clever skalieren auf Basis bestehender Strukturen

    Da Generative AI zunehmend Teil unseres Alltags wird, befinden wir uns in einer KI-Phase, die sich durch außerordentliche Fähigkeiten und enormen Konsum auszeichnet. Was anfangs auf einer theoretischen Ebene stattgefunden hat, ist inzwischen messbar - und zwar bis zur kleinsten Einheit. Aktuelle Untersuchungen von Mistral AI und Google deuten darauf hin, dass die Folgen einer einzigen Interaktion vernachlässigbar sind: Bruchteile eines Watts, einige Tropfen Wasser und ein Kohlenstoffausstoß, der etwa dem entspricht, was beim Streamen eines Videos unter einer Minute verbraucht wird.

  • Von Cloud-First zu Cloud-Smart

    Die zunehmende Vernetzung von IT- und OT-Systemen bedeutet für die Fertigungsindustrie neue Sicherheitsrisiken. Ein moderner Cloud-Smart-Ansatz verbindet Innovation mit effektiven Sicherheitslösungen, um diesen Herausforderungen gerecht zu werden. Die industrielle Digitalisierung stellt die Fertigungsindustrie heute vor neue Herausforderungen - insbesondere in puncto Sicherheit.

  • Technik statt Vertrauen

    Die andauernden Turbulenzen in den USA seit Amtsantritt von Donald Trump, die konsequente Kürzung von Mitteln für Datenschutz und die Kontrolle staatlicher Überwachungsprogramme verdeutlichen: Wer als Behörde oder Institution höchste Datensicherheit garantieren muss, kann nicht auf US-amerikanische Unternehmen oder deren europäische Töchter setzen.

  • Risiko von SaaS-zu-SaaS-Integrationen

    Ein SaaS-Sicherheitsalbtraum für IT-Manager in aller Welt wurde kürzlich wahr: Hacker nutzten legitime OAuth-Tokens aus der Drift-Chatbot-Integration von Salesloft mit Salesforce, um unbemerkt Kundendaten von der beliebten CRM-Plattform zu exfiltrieren. Der ausgeklügelte Angriff deckt einen kritischen toten Winkel auf, von dem die meisten Sicherheits-Teams nicht einmal wissen, dass sie von ihm betroffen sind.

  • Kostenfallen erkennen und vermeiden

    Remote Work, Cloud Computing und mobile Endgeräte haben die Arbeitswelt grundlegend verändert. Mitarbeiter erwarten heute, von überall aus auf ihre Anwendungen und Daten zugreifen zu können. Virtuelle Desktop-Lösungen machen diese Flexibilität möglich, indem sie Desktop-Umgebungen und Anwendungen über das Netzwerk eines Unternehmens bereitstellen. Doch der Markt für solche Lösungen ist komplex und vielfältig. IT-Entscheider stehen vor der Herausforderung, aus dem Angebot die passende Lösung zu identifizieren, die sowohl technische Anforderungen als auch wirtschaftliche Ziele erfüllt.

  • Übergang in die neue Systemlandschaft

    Der Umstieg auf SAP S/4HANA ist bei vielen Unternehmen bereits in vollem Gange oder steht unmittelbar bevor. Wer in diesem Zusammenhang seine Archivierungsstrategie überdenkt, kann wertvolle Zeit, Kosten und Aufwand sparen. Die Archivierungsexperten von kgs haben zehn zentrale Aspekte zusammengestellt, die dabei helfen, den Übergang in die neue Systemlandschaft effizient und zukunftssicher zu gestalten.

  • Die Zukunft braucht offene KI-Infrastrukturen

    KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologie ist eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht. Mittlerweile stellen Unternehmen jedoch die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen - unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich. Bei Inferenzen handelt es sich nämlich nicht um einzelne Workloads.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen