Sie sind hier: Startseite » Markt » Tipps und Hinweise

Cloud-Trends werden Cloud-native


Ein Leben nach Jenkins: Consol stellt neue CI- und CD-Tools für Cloud-native Anwendungen auf den Prüfstand
Die DevOps-Methode soll den CI/CD-Circle beschleunigen. Cloud-native CI/CD Tools bringen diesen Prozess voran


Cloud-native Anwendungen stellen spezifische Anforderungen an die Softwareentwicklung und -bereitstellung. Klassische CI- und CD-Tools stoßen hier schnell an ihre Grenzen. Consol stellt drei neue CI- und CD-Projekte vor und beleuchtet ihr Potenzial. Im Zuge des allgemeinen Cloud-Trends werden Cloud-native Applikationen immer wichtiger. Sie basieren verstärkt auf Microservices-Architekturen, die neue Anforderungen an Continuous Integration (CI) und Continuous Delivery (CD) stellen. CI- und CD-Tools sowie Workflows müssen sich vor allem an die Geschwindigkeit und die Komplexität der Cloud-nativen Möglichkeiten anpassen.

"Klassische" CI- und CD-Tools wie Jenkins mit ihren Funktionalitäten sind hier weniger geeignet. Stattdessen rücken inzwischen vermehrt neue Tools ins Blickfeld, die direkt aus der Cloud-nativen Entwicklung heraus entstanden sind und somit keine "Altlasten" mit sich tragen. Wichtige Kriterien, die sie erfüllen sollten, sind unter anderem Hosting und Scheduling auf Kubernetes, Container als Pipeline-Schritte, Web-UI und "Pipeline as Code".

Consol stellt drei neue Projekte beziehungsweise Tools vor.

1. Argo
Das Argo-Projekt besteht im Kern aus der gleichnamigen Workflow-Engine, die explizit für Kubernetes entworfen wurde. Argo-Workflows bestehen aus einer Reihe von beliebigen Containern, die über die üblichen Container-Schnittstellen parametrisiert werden. Die Bestandteile der Lösung, die Workflow-Engine selbst und das "Argo Events" genannte Event-Subprojekt, sind sehr schnell installiert. Die Installation umfasst im Wesentlichen vier Controller-Pods und das UI-Pod und ist somit leichtgewichtig. Argo kann problemlos dezentral pro Projekt installiert werden.

Dem Projekt ist anzumerken, dass es sich generisch auf Workflows spezialisiert und nicht speziell auf Continuous Integration zugeschnitten ist. Dennoch ist es möglich, aus den Argo-Komponenten eine effektive und vor allem flexible CI-Pipeline aufzubauen. Dazu existieren diverse Beispiele in den Repositories des Herstellers. So kann etwa via Argo Events eine Webhook-URL eingerichtet werden. Bei Aufruf startet sie einen Argo-Workflow als Pipeline, dessen Definition aus dem Git-Repository zu laden ist. Das Repository wird im Payload des Aufrufs angegeben. Damit ergibt sich letztlich eine "Pipeline as Code"-Funktionalität.

Für die Konfiguration sowohl der Workflows als auch der Event-Handler verwendet Argo ausschließlich Kubernetes-Objekte und Custom Resources. Das relativ spartanische, aber funktionale Web-Dashboard informiert über den aktuellen Stand der Workflows. Ein Command Line Client für das Definieren und Starten der Pipelines und ein separates Tool namens "Argo CD" für den Aspekt Delivery runden das Angebot ab.

2. InfraBox
InfraBox von SAP wird als "Cloud Native Continuous Integration System" positioniert und setzt ebenfalls auf Kubernetes auf. Das Deployment besteht aus einer größeren Menge an Pods inklusive einiger externer Abhängigkeiten und ist deswegen nicht mehr wirklich leichtgewichtig zu nennen.

Allerdings ist InfraBox das Tool mit der breitesten Feature-Palette. Es bringt bereits eine eigene Docker-Registry mit und laut Dokumentation werden viele Einsatzszenarien unterstützt, unter anderem auch eine Multi-Cluster-Installation, die sich über mehrere Cloud Provider erstrecken kann. Sogar eine integrierte Unterstützung für die Provisionierung von End-2-End-Testumgebungen ist vorhanden.

Auch InfraBox setzt auf Custom Resource Definitions, um Pipelines, Funktionen und die Ausführung dieser Artefakte zu verwalten. Die Pipelines laufen in einem dedizierten Namespace "infrabox-worker", was aber eher schlecht zu dezentralen Pipelines passt.

Die Pipeline-Schritte nennt InfraBox "Jobs". Es gibt mehrere Job-Typen mit vorgefertigten Funktionen, etwa um Repositories auszuchecken oder Images in die Registry zu übertragen. Darüber hinaus existiert aber auch ein generischer Job-Typ "docker-image", der beliebige Images ausführen kann.

Nicht zuletzt sind noch erwähnenswert das Web-UI, das vergleichsweise komfortabel ist und die Möglichkeit benutzerdefinierter Darstellungen bietet, und das Command Line Interface "infraboxcli", das den Entwickler beim lokalen Debugging von Jobs unterstützt.

3. Tekton und Jenkins X
Tekton ist ein sehr junges Projekt. Ursprünglich ging es aus Googles "Knative"-Produkt hervor, einer standardisierten Plattform für Serverless-Applikationen auf Kubernetes. Tekton ist der extrahierte Kern der "Build"-Komponente von Knative. Das Projekt wird von der ebenfalls erst vor Kurzem gegründeten "Continuous Delivery Foundation" verwaltet, die nach eigenen Aussagen der Fragmentierung der CI- und CD-Landschaft entgegentreten will. Neben Google und weiteren Unternehmen ist hier auch CloudBees Mitglied. Der Jenkins-Hersteller plant, Tekton als alternative Engine seiner eigenen Cloud-nativen CI- und CD-Lösung "Jenkins X" zu nutzen. Jenkins X besteht bisher aus dem bekannten Jenkins plus Kubernetes-Anbindung und speziellem Tooling. Aktuell ist diese Integration aber noch experimentell.

Als dedizierte Cloud-native Lösung macht Tekton einiges richtig. Sie basiert vollkommen auf Kubernetes-Scheduling und Pipelines werden als einzelne Pods mit mehreren Containern als Build-Schritte ausgeführt, die unter voller Kontrolle der Pipeline-Definition stehen. Das Interfacing ist "sauber", das heißt, es gibt keine proprietären Kommunikationswege zwischen CI und Container. Als Image-Build-Tool wird "Kaniko" propagiert. Die Installation ist leichtgewichtig und es gibt zwei zentrale Verwaltungs-Pods. Die Pipelines selbst werden als Custom Resources in den jeweiligen Projekten definiert und dort auch ausgeführt.

Bei Tekton handelt es sich allerdings noch um ein Projekt im Aufbau – die aktuelle Version ist 0.8.0 – vor allem auch im Hinblick auf die Dokumentation. Konzepte wie Webhook-Verarbeitung und ein Command Line Interface sind vorgesehen. "Pipeline as Code" mit Bezug der Definition aus einem Code-Repository wird zumindest im Zusammenspiel mit Jenkins X vermutlich möglich sein. CloudBees hat bereits in Aussicht gestellt, eine automatische Migration der herkömmlichen Jenkins-Files in das neue Format anzubieten.
"Alle drei vorgestellten Lösungen befinden sich auf einem guten Weg, das CI- und CD-Erbe von Jenkins anzutreten, da sie die aus unserer Sicht erforderlichen Kriterien erfüllen, auch wenn sie verschiedene Ansätze verfolgen und unterschiedliche Anforderungen abdecken", erklärt Oliver Weise, Senior Software Engineer bei Consol. "Das Argo-Projekt beinhaltet ein umfassendes Tool-Set für Workflows auf Kubernetes, bei dem CI nur ein Anwendungsfall unter anderen ist. InfraBox ist im Gegensatz dazu eine klassische, zentralistische Lösung mit einem reichen Feature-Set, schlüsselfertigen Funktionalitäten und dem von Jenkins gewohnten Komfort. Und Tekton als zukünftige Engine von Jenkins X ist aktuell eher noch als eine perspektivische Lösung zu betrachten, verspricht aber durchaus, eine hochinteressante Alternative zu werden." (Consol: ra)

eingetragen: 04.11.19
Newsletterlauf: 19.12.19

Consol: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

  • Clever skalieren auf Basis bestehender Strukturen

    Da Generative AI zunehmend Teil unseres Alltags wird, befinden wir uns in einer KI-Phase, die sich durch außerordentliche Fähigkeiten und enormen Konsum auszeichnet. Was anfangs auf einer theoretischen Ebene stattgefunden hat, ist inzwischen messbar - und zwar bis zur kleinsten Einheit. Aktuelle Untersuchungen von Mistral AI und Google deuten darauf hin, dass die Folgen einer einzigen Interaktion vernachlässigbar sind: Bruchteile eines Watts, einige Tropfen Wasser und ein Kohlenstoffausstoß, der etwa dem entspricht, was beim Streamen eines Videos unter einer Minute verbraucht wird.

  • Von Cloud-First zu Cloud-Smart

    Die zunehmende Vernetzung von IT- und OT-Systemen bedeutet für die Fertigungsindustrie neue Sicherheitsrisiken. Ein moderner Cloud-Smart-Ansatz verbindet Innovation mit effektiven Sicherheitslösungen, um diesen Herausforderungen gerecht zu werden. Die industrielle Digitalisierung stellt die Fertigungsindustrie heute vor neue Herausforderungen - insbesondere in puncto Sicherheit.

  • Technik statt Vertrauen

    Die andauernden Turbulenzen in den USA seit Amtsantritt von Donald Trump, die konsequente Kürzung von Mitteln für Datenschutz und die Kontrolle staatlicher Überwachungsprogramme verdeutlichen: Wer als Behörde oder Institution höchste Datensicherheit garantieren muss, kann nicht auf US-amerikanische Unternehmen oder deren europäische Töchter setzen.

  • Risiko von SaaS-zu-SaaS-Integrationen

    Ein SaaS-Sicherheitsalbtraum für IT-Manager in aller Welt wurde kürzlich wahr: Hacker nutzten legitime OAuth-Tokens aus der Drift-Chatbot-Integration von Salesloft mit Salesforce, um unbemerkt Kundendaten von der beliebten CRM-Plattform zu exfiltrieren. Der ausgeklügelte Angriff deckt einen kritischen toten Winkel auf, von dem die meisten Sicherheits-Teams nicht einmal wissen, dass sie von ihm betroffen sind.

  • Kostenfallen erkennen und vermeiden

    Remote Work, Cloud Computing und mobile Endgeräte haben die Arbeitswelt grundlegend verändert. Mitarbeiter erwarten heute, von überall aus auf ihre Anwendungen und Daten zugreifen zu können. Virtuelle Desktop-Lösungen machen diese Flexibilität möglich, indem sie Desktop-Umgebungen und Anwendungen über das Netzwerk eines Unternehmens bereitstellen. Doch der Markt für solche Lösungen ist komplex und vielfältig. IT-Entscheider stehen vor der Herausforderung, aus dem Angebot die passende Lösung zu identifizieren, die sowohl technische Anforderungen als auch wirtschaftliche Ziele erfüllt.

  • Übergang in die neue Systemlandschaft

    Der Umstieg auf SAP S/4HANA ist bei vielen Unternehmen bereits in vollem Gange oder steht unmittelbar bevor. Wer in diesem Zusammenhang seine Archivierungsstrategie überdenkt, kann wertvolle Zeit, Kosten und Aufwand sparen. Die Archivierungsexperten von kgs haben zehn zentrale Aspekte zusammengestellt, die dabei helfen, den Übergang in die neue Systemlandschaft effizient und zukunftssicher zu gestalten.

  • Die Zukunft braucht offene KI-Infrastrukturen

    KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologie ist eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht. Mittlerweile stellen Unternehmen jedoch die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen - unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich. Bei Inferenzen handelt es sich nämlich nicht um einzelne Workloads.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen