Apache Hudi Intensivseminar für Architektur, Engineering, Betrieb und Optimierung
Das Intensivseminar bündelt die Inhalte der übrigen Apache-Hudi-Seminare in einem geschlossenen Fünf-Tage-Format. Architektur, Praxis, Ingestion, CDC, Betrieb, Table Services und Performance werden zusammenhängend aufgebaut, sodass ein vollständiger Lernpfad ohne Brüche entsteht. Die maximale Dauer von fünf Tagen wird vollständig ausgenutzt, weil hier nicht nur Überblick, sondern auch Aufbau, Betrieb und Optimierung in einem Zug vermittelt werden.
Zielgruppe
Geeignet für Data Engineers, Architekten, Plattform- und Betriebsteams, die Apache Hudi ganzheitlich einführen, standardisieren oder eine bestehende Plattform professionalisieren wollen.
Voraussetzungen
Erwartet wird ein solides Grundverständnis von SQL, Data Lakes und verteilten Datenplattformen. Erste Praxis mit Spark oder Flink ist nützlich, aber nicht zwingend auf Expertenniveau erforderlich.
Seminarinhalte
- Einordnung von Apache Hudi im Data-Lakehouse-Stack und im Apache-Ökosystem
- Tabellenkonzepte, Timeline, Commit-Modelle und Abfragearten
- Copy-on-Write, Merge-on-Read und belastbare Auswahlkriterien
- Praktischer Aufbau von Tabellen, Schlüsseln, Partitionen und Schemata
- Ingestion mit Batch, Streaming und CDC-Mustern
- Spark- und Flink-orientierte Schreib- und Lesewege in realistischen Architekturen
- Incremental Queries, Time Travel und CDC als Bausteine für Folgeprozesse
- Table Services, Metadata Table, Data Skipping, Indexing und Betriebsautomatisierung
- Concurrency Control, Recovery, Monitoring und Troubleshooting
- Vorgehensmodell für Einführung, Standardisierung und produktive Betriebsreife
Praxis und Übungen
Alle Übungen bauen auf einer gemeinsamen Referenzumgebung auf. Aus einer einfachen Tabelle entsteht Schritt für Schritt eine vollständige Hudi-Lösung mit Änderungsdaten, Wartungsläufen, Auswertungen und gezielter Fehlerbehandlung. Das spart Doppelaufwand und zeigt den roten Faden vom Konzept bis zum Betrieb.
Seminardetails
| Dauer: | 5 Tage ca. 6 h/Tag, Beginn 1. Tag: 10:00 Uhr, weitere Tage 09:00 Uhr |
| Preis: |
Öffentlich und Webinar: CHF 2.995 zzgl. MwSt. Inhaus: CHF 8.500 zzgl. MwSt. |
| Teilnehmeranzahl: | min. 2 - max. 8 |
| Teilnehmer: | Data Engineers, Architekten, Plattform- und Betriebsteams mit Einführungs- oder Standardisierungsauftrag |
| Voraussetzungen: | Grundverständnis von SQL, Data Lakes und verteilten Datenplattformen; erste Praxis mit Spark oder Flink ist nützlich |
| Standorte: | Basel, Bern, Luzern, Sankt Gallen, Winterthur, Zürich |
| Methoden: | Vortrag, Demonstrationen, praktische Übungen am System, Architekturarbeit, End-to-End-Labs |
| Seminararten: | Öffentlich, Webinar, Inhaus, Workshop - Alle Seminare mit Trainer vor Ort, Webinar nur wenn ausdrücklich gewünscht |
| Durchführungsgarantie: | ja, ab 2 Teilnehmern |
| Sprache: | Deutsch - bei Firmenseminaren ist auch Englisch möglich |
| Seminarunterlage: | Dokumentation auf Datenträger oder als Download |
| Teilnahmezertifikat: | ja, selbstverständlich |
| Verpflegung: | Kalt- / Warmgetränke, Mittagessen (wahlweise vegetarisch) |
| Support: | 3 Anrufe im Seminarpreis enthalten |
| Barrierefreier Zugang: | an den meisten Standorten verfügbar |
| Weitere Informationen unter +41 (800) 225127 |
Seminartermine
Die Ergebnissliste kann durch Anklicken der Überschrift neu sortiert werden.
