Sie sind hier: Startseite » Markt » Tipps und Hinweise

Kosteneinsparungen in der Cloud


Tagging ist einer der wichtigsten Ratschläge für Cloud-Neulinge
Oracle liefert Unternehmen einen Leitfaden für das Erschließen von Cloud-Potenzialen


Wer regelmäßig Cloud Computing-Services nutzt, fragt sich gewiss von Zeit zu Zeit, warum die Rechnung in manchen Monaten höher ist als in anderen oder was es wohl kosten würde, eine bestimmte Anwendung in die Cloud zu verlagern. Um User gezielt dabei zu unterstützen, die volle Kostenkontrolle über ihre Cloud-Nutzung zu wahren, ohne an Leistung einzubüßen, hat Oracle einen Leitfaden aus fünf Punkten zusammengestellt. Vom Finanzexperten mit Budgetverantwortung über den Entscheidungsträger, der ein neues Projekt evaluiert, bis hin zum DevOps-Ingenieur, der das Funktionsdesign von IT-Anwendungen modigfiziert – Kostenmanagement in der Cloud ist von entscheidender Bedeutung für den Erfolg oder Misserfolg eines Unternehmens. Die Möglichkeiten, die die Cloud bereithält, sind schier grenzenlos. Für Anwender macht sich daher ein systematischer Kurzüberblick bezahlt.

1. Alles von Anfang an taggen
Tagging ist einer der wichtigsten Ratschläge für Cloud-Neulinge. Selbst wenn eine Umgebung zu Beginn nicht gut strukturiert ist, können User durch Tags, insbesondere obligatorische, vordefinierte Tags und Tags zur Kostenverfolgung, ihre Ressourcen klassifizieren und davon ausgehend Such- und Massenaktionen durchführen. Tags sind am besten zu verstehen als eine beliebige Textfolge, die Anwender einer Ressource zuweisen und die den Ressourcentyp, die Umgebung – Produktion, Staging oder Test –, den Projektnamen, die Rollen, die Business Unit, die Abteilung, die Kostenstelle und so weiter beschreibt. Liegen die Elemente lückenlos vor, lassen sich schnell Kostentreiber und ihre Relevanz für das Ergebnis identifizieren. Anschließend können User ihre Erkenntnisse mithilfe einer dafür vorgesehenen Anwendung automatisch an die relevanten Stakeholder weitergeben oder unmittelbare Aktionen für die betreffenden Ressourcen ausführen. Darüber hinaus lassen sich für alle Ressourcen, die ein bestimmtes Tag verwenden, ein maximales Budget und ein Budgetalarm festlegen, um ungewollte Ausgaben zu verhindern.

2. Sharing ist eben nicht Caring
Ein weiterer Faktor, der zur Kostensenkung beiträgt, sind isolierte Compartments innerhalb einer Tenancy, in der Administratoren die Ressourcen hierarchisch aufteilen können. Diese Compartments und Sub-Compartments können ein Projekt, ein Team oder eine andere Gruppe von Ressourcen sein, die benötigt werden. In großen Organisationen lässt sich zudem ein Konzept übergeordneter und untergeordneter Tenancies implementieren, um die Verwaltungsaufgaben zu vereinfachen.

Durch die Aufteilung der Ressourcen nach Projekten oder Abteilungen in verschiedene Compartments können Anwender die Auslastung und die Kosten verfolgen. Noch wichtiger ist jedoch, dass sie Servicekontingente einrichten können. Damit lassen sich die Ressourcen sinnvoll begrenzen, auf die das Team in bestimmten Abteilungen standardmäßig Zugriff hat.

3. Zeit ist Geld
Ein wesentlicher Vorteil der Cloud für das Geschäft besteht darin, dass Anwender ihre Ressourcen leicht skalieren können und nur für die genutzten Ressourcen zahlen. Zudem können sie ihre Ressourcen leicht reduzieren, sofern sie nicht benötigt werden. Selbst wenn Produktionssysteme rund um die Uhr laufen müssen, laufen andere virtuelle Maschinen (VMs) zum Beispiel in Test- oder Entwicklungsumgebungen nur während der Bürozeiten und nicht in der Nacht oder am Wochenende. Das Ein- und Ausschalten von Servern vor Ort kann eine mühsame Aufgabe sein. In der Cloud können Nutzer diesen Vorgang per Skript steuern – ein exklusives Feature, das es nur in der Cloud gibt. Durch die Flexibilität der Cloud können verschiedenen Gruppen von Anwendern unterschiedliche Zeitpläne zugewiesen werden, damit die Entwickler, die mit den Ressourcen arbeiten, über eine transparente Gesamtsicht verfügen. Zugleich hindert das Prozedere keinen Entwickler daran, eine bestimmte Instanz neu zu starten, wenn er sie außerplanmäßig benötigt.

4. Stakeholder einbeziehen und auf Automatisierung setzen
In vielen Unternehmen gibt es ein spezielles Team für exzellente Cloud-Prozesse, das als eine Art Gatekeeper fungiert und die Entwickler und den Betrieb kontrolliert sowie Best Practices für alle neu erstellten Ressourcen durchsetzt. Allerdings sind Engpässe nicht unbedingt der ideale Weg zur Kostensenkung. Stattdessen empfiehlt es sich, feste Regeln im Unternehmen zu etablieren unter Verwendung von rollenbasierten Richtlinien, Tags, Benutzergruppen und Maßnahmen für das Kostenmanagement. Auf diese Weise wird das DevOps-Team nicht ausgebremst, sondern mithilfe von Leitplanken ein Abdriften erschwert. Empfehlenswert ist es außerdem, dem Team die Freiheit zu lassen, sich innerhalb der gesetzten Vorgaben auszuprobieren und zugleich offene Kommunikation zu fördern. Durch eine transparente Weitergabe von Informationen an das gesamte Team lässt sich eine stärkere Beteiligung der Beteiligten erzielen. Diese sind dann im Fall von Abweichungen in der Lage, selbst geeignete Korrekturmaßnahmen zu ergreifen.

5. Cloud-native Technologien und Container verwenden
Die Cloud verfügt über eine praktisch unbegrenzte Kapazität. Vor diesem Hintergrund sollte nicht allein der der Cloud-Anbieter für sämtliche Optimierungsaufgaben zur Verantwortung gezogen werden. Von der Fülle der Möglichkeiten profitieren insbesondere die Unternehmen, die über die Nutzung von Rechen- und Speicherdiensten in der Cloud hinausgehen und alle Vorteile nutzen, die Cloud Native Services bieten.

Nach dem initialen Schritt in die Cloud sollte der logische zweite darin bestehen, von einem gewissermaßen monolithischen Code zu einer vollständig containerisierten Anwendung zu wechseln, die auf Microservices basiert und alle aktuellen Cloud Native Services nutzt. Dazu gehört etwa eine serverlose Anwendung, bei der Container an Ort und Stelle erstellt werden, um einen Code auszuführen, und dann stillgelegt werden, wenn die Anfrage abgeschlossen ist.

Der Prozess der Containerisierung senkt die Cloud-Rechnung für Anwender, vervielfacht die Bereitstellungsgeschwindigkeit und steigert die Produktivität ganzer Teams. Die Cloud Native Computing Foundations (CNCF) hat zahlreiche Forschungsstudien zu diesem Thema veröffentlicht. Ein anschauliches Beispiel liefert ein Testszenario des CERN, das auf OCI gehostet wird und die Skalierung auf eine Umgebung mit 320 Tausend Kernen und die Bereitstellung eines neuen Clusters in wenigen Minuten anstelle von Stunden ermöglicht. (Oracle: ra)

eingetragen: 30.10.21
Newsletterlauf: 29.11.21

Oracle: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

  • Clever skalieren auf Basis bestehender Strukturen

    Da Generative AI zunehmend Teil unseres Alltags wird, befinden wir uns in einer KI-Phase, die sich durch außerordentliche Fähigkeiten und enormen Konsum auszeichnet. Was anfangs auf einer theoretischen Ebene stattgefunden hat, ist inzwischen messbar - und zwar bis zur kleinsten Einheit. Aktuelle Untersuchungen von Mistral AI und Google deuten darauf hin, dass die Folgen einer einzigen Interaktion vernachlässigbar sind: Bruchteile eines Watts, einige Tropfen Wasser und ein Kohlenstoffausstoß, der etwa dem entspricht, was beim Streamen eines Videos unter einer Minute verbraucht wird.

  • Von Cloud-First zu Cloud-Smart

    Die zunehmende Vernetzung von IT- und OT-Systemen bedeutet für die Fertigungsindustrie neue Sicherheitsrisiken. Ein moderner Cloud-Smart-Ansatz verbindet Innovation mit effektiven Sicherheitslösungen, um diesen Herausforderungen gerecht zu werden. Die industrielle Digitalisierung stellt die Fertigungsindustrie heute vor neue Herausforderungen - insbesondere in puncto Sicherheit.

  • Technik statt Vertrauen

    Die andauernden Turbulenzen in den USA seit Amtsantritt von Donald Trump, die konsequente Kürzung von Mitteln für Datenschutz und die Kontrolle staatlicher Überwachungsprogramme verdeutlichen: Wer als Behörde oder Institution höchste Datensicherheit garantieren muss, kann nicht auf US-amerikanische Unternehmen oder deren europäische Töchter setzen.

  • Risiko von SaaS-zu-SaaS-Integrationen

    Ein SaaS-Sicherheitsalbtraum für IT-Manager in aller Welt wurde kürzlich wahr: Hacker nutzten legitime OAuth-Tokens aus der Drift-Chatbot-Integration von Salesloft mit Salesforce, um unbemerkt Kundendaten von der beliebten CRM-Plattform zu exfiltrieren. Der ausgeklügelte Angriff deckt einen kritischen toten Winkel auf, von dem die meisten Sicherheits-Teams nicht einmal wissen, dass sie von ihm betroffen sind.

  • Kostenfallen erkennen und vermeiden

    Remote Work, Cloud Computing und mobile Endgeräte haben die Arbeitswelt grundlegend verändert. Mitarbeiter erwarten heute, von überall aus auf ihre Anwendungen und Daten zugreifen zu können. Virtuelle Desktop-Lösungen machen diese Flexibilität möglich, indem sie Desktop-Umgebungen und Anwendungen über das Netzwerk eines Unternehmens bereitstellen. Doch der Markt für solche Lösungen ist komplex und vielfältig. IT-Entscheider stehen vor der Herausforderung, aus dem Angebot die passende Lösung zu identifizieren, die sowohl technische Anforderungen als auch wirtschaftliche Ziele erfüllt.

  • Übergang in die neue Systemlandschaft

    Der Umstieg auf SAP S/4HANA ist bei vielen Unternehmen bereits in vollem Gange oder steht unmittelbar bevor. Wer in diesem Zusammenhang seine Archivierungsstrategie überdenkt, kann wertvolle Zeit, Kosten und Aufwand sparen. Die Archivierungsexperten von kgs haben zehn zentrale Aspekte zusammengestellt, die dabei helfen, den Übergang in die neue Systemlandschaft effizient und zukunftssicher zu gestalten.

  • Die Zukunft braucht offene KI-Infrastrukturen

    KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologie ist eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht. Mittlerweile stellen Unternehmen jedoch die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen - unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich. Bei Inferenzen handelt es sich nämlich nicht um einzelne Workloads.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen