Newsletter

   Kontakt

Kompetentes und unabhängiges Wissen für IT-Profis. 

Konferenzen, Workshops und Webinare.

Big Data mit Hadoop

(2-tägiger iX-Workshop)

In diesem Kurs lernen Sie die Einsatzgebiete des Hadoop-Framework zum Betrieb von skalierbarer, verteilt im Cluster arbeitender Software kennen. Sie erhalten einen Überblick über die verschiedenen Hadoop Distributionen und erfahren, wie man Hadoop installiert, konfiguriert, administriert und nutzt.

Leistungen Ihres Workshoptickets

  • Workshopunterlagen
  • Tagungsgetränke & Verpflegung
  • Teinlahmebescheinigung
  • Notebooks werden zur Verfügung gestellt

Durchführung

Ist die Durchführung der Veranstaltung aufgrund höherer Gewalt, wegen Verhinderung eines Referenten, wegen Störungen am Veranstaltungsort oder aufgrund zu geringer Teilnehmerzahl (weniger als 50%) nicht möglich, werden die Teilnehmer spätestens 14 Tage vorher durch das heise Events-Team informiert.

Kontakt

Haben Sie Fragen zu der Organisation oder der Veranstaltung? Gern beantworte ich Ihre Fragen per E-Mail!

Jennifer Rypalla // jery@heise.de

Termine & Preise

individuelles Angebot auf Anfrage

mögliche Agenda & Trainer

Programm Tag 1

  • 08:30 - 09:00 Uhr Registrierung

  • 09:00 - 17:00 Uhr Einführung in die Welt von Big Data

  • Einführung und Überblick über Hadoop:

    Übersicht über verschiedene Hadoop-Distributionen / Hadoop Core Funktionen vs. Hadoop Öko-System / Einführung in Map/Reduce / Funktionsweise des Hadoop Distributed File System (HDFS) / Übersicht über verschiedene Hadoop-Distributionen

  • Konfiguration des Hadoop-Clusters

    Apache Hadoop / Hortonworks HDP / Cloudera CDH

  • praktische Anwendung von Hadoop

    Interaktion mit HDFS / Entwicklung von MapReduce Jobs und Verwendung der Streaming API / Big Data SQL Queries mit Hive und HiveQL / komplexe MapReduce Jobs mit Pig / Daten Import/Export aus SQL-Datenbanken mit sqoop / Echtzeit-Datenverwaltung mit HBase / konsistentes Cluster-Management mit Zookeeper / Streak Processing mit Kafka

Programm Tag 2

  • 09:00 - 17:00 Uhr

  • manuelle Cluster-Installation mit Apache Hadoop

    Stand-Alone/Entwickler-Modus / Distributed Mode / HDFS-Konfiguration / YARN-Konfiguration

  • Installation von Hortonworks HDP

    System-Vorbereitung / Installation von Ambari / Installation von HDP

  • Einführung in Spark 2

    Spark vs. Hadoop / Spark Data Frames / Spark SQLp

Jeweils 15 Minuten Kaffeepause am Vor- und Nachmittag. Ca. 12:30 - 13:30 Uhr Mittagspause.

B1 Systems

B1 Systems

Ihr Referent des Workshops wird gestellt von: B1 Systems GmbH