Newsletter

   Kontakt

Big Data mit Hadoop

(2-tägiger iX-Workshop)

In diesem Kurs lernen Sie die Einsatzgebiete des Hadoop-Framework zum Betrieb von skalierbarer, verteilt im Cluster arbeitender Software kennen. Sie erhalten einen Überblick über die verschiedenen Hadoop Distributionen und erfahren, wie man Hadoop installiert, konfiguriert, administriert und nutzt.

Leistungen Ihres Workshoptickets

  • Workshopunterlagen
  • Tagungsgetränke & Verpflegung
  • Teinlahmebescheinigung
  • Notebooks werden zur Verfügung gestellt


Der Workshop ist auf 20 Teilnehmer begrenzt!

Durchführung

Ist die Durchführung der Veranstaltung aufgrund höherer Gewalt, wegen Verhinderung eines Referenten, wegen Störungen am Veranstaltungsort oder aufgrund zu geringer Teilnehmerzahl (weniger als 50%) nicht möglich, werden die Teilnehmer spätestens 14 Tage vorher durch das heise Events-Team informiert.

Kontakt

Haben Sie Fragen zu der Organisation oder der Veranstaltung? Gern beantworte ich Ihre Fragen per E-Mail!

Jennifer Rypalla // jery@heise.de

Termine & Preise

19. - 20.02.2019, Frankfurt am Main

DE-CIX Management GmbH, Lindleystraße 12, 60314 Frankfurt am Main

Tickets Frankfurt - ausverkauft

03. - 04.09.2019, Hannover

Heise Medien GmbH & Co. KG, Karl-Wiechert-Allee 10, 30625 Hannover

Tickets Hannover

Preise

Frühbucherpreis: 1.629,00 € *

Standardpreis: 1.810,00 €

Alle Preise inkl. MwSt

* 10% Frühbucherrabatt bis 6 Wochen vor Veranstaltungsbeginn

Agenda & Trainer

Programm Tag 1

  • 08:30 - 09:00 Uhr Registrierung

  • 09:00 - 17:00 Uhr Einführung in die Welt von Big Data

  • Einführung und Überblick über Hadoop:

    Übersicht über verschiedene Hadoop-Distributionen / Hadoop Core Funktionen vs. Hadoop Öko-System / Einführung in Map/Reduce / Funktionsweise des Hadoop Distributed File System (HDFS) / Übersicht über verschiedene Hadoop-Distributionen

  • Konfiguration des Hadoop-Clusters

    Apache Hadoop / Hortonworks HDP / Cloudera CDH

  • praktische Anwendung von Hadoop

    Interaktion mit HDFS / Entwicklung von MapReduce Jobs und Verwendung der Streaming API / Big Data SQL Queries mit Hive und HiveQL / komplexe MapReduce Jobs mit Pig / Daten Import/Export aus SQL-Datenbanken mit sqoop / Echtzeit-Datenverwaltung mit HBase / konsistentes Cluster-Management mit Zookeeper / Streak Processing mit Kafka

Programm Tag 2

  • 09:00 - 17:00 Uhr

  • manuelle Cluster-Installation mit Apache Hadoop

    Stand-Alone/Entwickler-Modus / Distributed Mode / HDFS-Konfiguration / YARN-Konfiguration

  • Installation von Hortonworks HDP

    System-Vorbereitung / Installation von Ambari / Installation von HDP

  • Einführung in Spark 2

    Spark vs. Hadoop / Spark Data Frames / Spark SQLp

Jeweils 15 Minuten Kaffeepause am Vor- und Nachmittag. Ca. 12:30 - 13:30 Uhr Mittagspause.

B1 Systems

Ihr Referent des Workshops wird gestellt von: B1 Systems GmbH