Big Data mit Hadoop

(2-tägiger iX-Workshop)

In diesem Kurs lernen Sie die Einsatzgebiete des Hadoop-Framework zum Betrieb von skalierbarer, verteilt im Cluster arbeitender Software kennen. Sie erhalten einen Überblick über die verschiedenen Hadoop Distributionen und erfahren, wie man Hadoop installiert, konfiguriert, administriert und nutzt.

19. - 20.02.2019

DE-CIX Management GmbH, Lindleystraße 12, 60314 Frankfurt am Main
Zum Ticketshop für den 19. - 20.02.2019


03. - 04.09.2019

Heise Medien GmbH & Co. KG, Karl-Wiechert-Allee 10, 30625 Hannover


+++ Sichern Sie sich jetzt 10% Frühbucherrabatt (regulärer Preis: 1.810,00 Euro) +++

+++ Bis 07.01.2019 für Frankfurt +++ Bis 22.07.2019 für Hannover +++


Leistungen Ihres Workshoptickets

  • Workshopunterlagen
  • Tagungsgetränke & Verpflegung
  • Teinahmebescheinigung
  • Notebooks werden zur Verfügung gestellt


Der Workshop ist auf 20 Teilnehmer begrenzt!

Ist die Durchführung der Veranstaltung aufgrund höherer Gewalt, wegen Verhinderung eines Referenten, wegen Störungen am Veranstaltungsort oder aufgrund zu geringer Teilnehmerzahl (weniger als 50%) nicht möglich, werden die Teilnehmer spätestens 14 Tage vorher durch das heise Events-Team informiert.

Kontakt

Haben Sie Fragen zu der Organisation oder der Veranstaltung? Gern antworte ich auf Ihre Anfrage per E-Mail!

Silvia Langer, Event-Manager // sil@heise.de

Agenda & Trainer

B1

Ihr Referent des Workshops wird gestellt von: B1 Systems GmbH

Tag 1

08:30 - 09:00 Uhr Registrierung

09:00 - 17:00 Uhr

  • Einführung in die Welt von Big Data
  • Einführung und Überblick über Hadoop: Übersicht über verschiedene Hadoop-Distributionen, Hadoop Core Funktionen vs. Hadoop Öko-System, Einführung in Map/Reduce, Funktionsweise des Hadoop Distributed File System (HDFS)
  • Übersicht über verschiedene Hadoop-Distributionen
  • Konfiguration des Hadoop-Clusters: Apache Hadoop, Hortonworks HDP, Cloudera CDH
  • praktische Anwendung von Hadoop: Interaktion mit HDFS, Entwicklung von MapReduce Jobs und Verwendung der Streaming API, Big Data SQL Queries mit Hive und HiveQL, komplexe MapReduce Jobs mit Pig, Daten Import/Export aus SQL-Datenbanken mit sqoop, Echtzeit-Datenverwaltung mit HBase, konsistentes Cluster-Management mit Zookeeper, Streak Processing mit Kafka


Tag 2

09:00 - 17:00 Uhr

  • manuelle Cluster-Installation mit Apache Hadoop: Stand-Alone/Entwickler-Modus, Distributed Mode, HDFS-Konfiguration, YARN-Konfiguration
  • Installation von Hortonworks HDP: System-Vorbereitung, Installation von Ambari, Installation von HDP
  • Einführung in Spark 2: Spark vs. Hadoop, Spark Data Frames, Spark SQLp


Pausen: ca. 12:30 - 13:30 Uhr Mittagspause. Jeweils 15 Minuten Kaffeepause am Vormittag und Nachmittag!

Hotelzimmer

Sie benötigen noch eine Übernachtungsmöglichkeit zur Teilnahme an unserem Workshop? Folgende Hotels in der Nähe der Location können wir Ihnen empfehlen:

Hannover

Frankfurt

Auf Anfrage unter sil@heise.de