Nevergrad Ask-and-Tell, Parallelisierung und asynchrone Optimierung
Zielsetzung
Dieses Seminar macht ask-and-tell-basierte Optimierung mit Nevergrad beherrschbar und produktiv einsetzbar. Im Fokus stehen Steuerung, Parallelisierung und die saubere Integration externer Bewertungsprozesse in robuste Optimierungsabläufe.
Zielgruppe
Adressiert werden Teams, die Nevergrad nicht nur mit minimize, sondern in individuell orchestrierten Workflows einsetzen möchten. Besonders relevant ist das Format für ML- und Forschungsumgebungen mit mehreren Workern, unterschiedlich langen Auswertungen und wiederverwendbaren Pipelines.
Voraussetzungen
Vorausgesetzt werden sichere Python-Grundlagen sowie erste Erfahrung mit Nevergrad oder äquivalentes Wissen aus dem Crashkurs. Ein grundlegendes Verständnis für Optimierungsläufe, Budgets und Auswertungsschleifen ist hilfreich.
Inhalte
- Aufbau und Denkmodell der ask-, tell- und provide_recommendation-Methoden
- Entwurf stabiler Optimierungsschleifen für sequenzielle, parallele und asynchrone Szenarien
- Arbeiten mit num_workers, Batch- und Steady-State-Mustern
- Gezielte Vorgaben über suggest und das Nachmelden bereits bekannter Punkte
- Callbacks, Logging und Kontrollpunkte für transparente Experimente
- Umgang mit unterschiedlich langen Auswertungen und teuren Zielsystemen
- Übertragung auf Worker-Pools, Testumgebungen und verteilte Praxisarchitekturen
Praxisanteil
Mehrere Labs führen von der einfachen ask-and-tell-Schleife bis zum asynchronen Worker-Modell. Dabei werden Bewertungsroutinen, Rückmeldelogik, Ergebnisaggregation und die stabile Berechnung einer Empfehlung Schritt für Schritt aufgebaut.
Seminar und Anbieter vergleichen
Öffentliche Schulung
Diese Seminarform ist auch als Präsenzseminar bekannt und bedeutet, dass Sie in unseren Räumlichkeiten von einem Trainer vor Ort geschult werden. Jeder Teilnehmer hat einen Arbeitsplatz mit virtueller Schulungsumgebung. Öffentliche Seminare werden in deutscher Sprache durchgeführt, die Unterlagen sind teilweise in Englisch.
Inhausschulung
Diese Seminarform bietet sich für Unternehmen an, welche gleiche mehrere Teilnehmer gleichzeitig schulen möchten. Der Trainer kommt zu Ihnen ins Haus und unterrichtet in Ihren Räumlichkeiten. Diese Seminare können in Deutsch - bei Firmenseminaren ist auch Englisch möglich gebucht werden.
Webinar
Diese Art der Schulung ist geeignet, wenn Sie die Präsenz eines Trainers nicht benötigen, nicht Reisen können und über das Internet an einer Schulung teilnehmen möchten.
Fachbereichsleiter / Leiter der Trainer / Ihre Ansprechpartner
-

Michael Adler
Telefon: + 41 (800) 225127
E-Mail: michael.adler@seminar-experts.ch -

Stefano Conti
Telefon: + 41 (800) 225127
E-Mail: stefano.conti@seminar-experts.ch
Seminardetails
| Dauer: | 2 Tage ca. 6 h/Tag, Beginn 1. Tag: 10:00 Uhr, weitere Tage 09:00 Uhr |
| Preis: |
Öffentlich und Webinar: CHF 1.198 zzgl. MwSt. Inhaus: CHF 3.400 zzgl. MwSt. |
| Teilnehmeranzahl: | min. 2 - max. 8 |
| Teilnehmer: | ML Engineers, Plattform-Teams, Research Engineers, Python-Entwickler mit parallelen Ausführungsmodellen |
| Voraussetzungen: | Grundlagen in Nevergrad oder Kenntnisse aus dem Crashkurs; sicherer Umgang mit Python-Funktionen und Auswerteschleifen |
| Standorte: | Basel, Bern, Luzern, Sankt Gallen, Winterthur, Zürich |
| Methoden: | Vortrag, Demonstrationen, praktische Übungen am System, Aufbau paralleler Auswerteschleifen |
| Seminararten: | Öffentlich, Webinar, Inhaus, Workshop - Alle Seminare mit Trainer vor Ort, Webinar nur wenn ausdrücklich gewünscht |
| Durchführungsgarantie: | ja, ab 2 Teilnehmern |
| Sprache: | Deutsch - bei Firmenseminaren ist auch Englisch möglich |
| Seminarunterlage: | Dokumentation auf Datenträger oder als Download |
| Teilnahmezertifikat: | ja, selbstverständlich |
| Verpflegung: | Kalt- / Warmgetränke, Mittagessen (wahlweise vegetarisch) |
| Support: | 3 Anrufe im Seminarpreis enthalten |
| Barrierefreier Zugang: | an den meisten Standorten verfügbar |
| Weitere Informationen unter +41 (800) 225127 |
Seminartermine
Die Ergebnissliste kann durch Anklicken der Überschrift neu sortiert werden.
