Big Data mit Hadoop

2-tägiger iX-Workshop

Verteilte Software-Lösungen mit Apache Hadoop

In diesem Kurs lernen Sie die Einsatzgebiete des Framework Hadoop für skalierbare, verteilt arbeitende Software kennen, sowie Hadoop auf unterschiedliche Arten zu installieren, konfigurieren und zu administrieren.


Voraussetzungen:
Als Teilnehmer des Workshops sollten Sie ein grundlegendes Verständnis für die System- und Netzwerkadministration unter Linux mitbringen.


Leistungen Ihres Workshoptickets:

  • Workshopunterlagen
  • Tagungsgetränke & Verpflegung
  • Teinahmebescheinigung
  • Notebooks werden zur Verfügung gestellt


Der Workshop ist auf 10 Teilnehmer begrenzt!
 

++ Sichern Sie sich bis 6 Wochen vorher 10% Frühbucherrabatt ++

Teilnahmegebühr (inkl. MwSt.):
Frühbucherticket: 1480,50 Euro (bis 17.09.2018)
Standardticket: 1645,00 Euro

++++++++++++++++++++++++++++++++++++++++++++++++++++

 

Ist die Durchführung der Veranstaltung aufgrund höherer Gewalt, wegen Verhinderung eines Referenten, wegen Störungen am Veranstaltungsort oder aufgrund zu geringer Teilnehmerzahl (weniger als 50%) nicht möglich, werden die Teilnehmer spätestens 14 Tage vorher durch das Heise Events-Team informiert.

Programm Big Data mit Hadoop

Tag 1 (09:30 bis 18:00 Uhr)
 
09:30 - 10:00 Uhr Registrierung
 
10:00 Uhr Beginn des Workshops
  • Einführung in die Welt von Big Data
     
  • Einführung und Überblick über Hadoop
    - Übersicht über verschiedene Hadoop-Distributionen
    - Hadoop Core Funktionen vs. Hadoop Öko-System
    - Einführung in Map/Reduce
    - Funktionsweise des Hadoop Distributed File System (HDFS)
     
  • Übersicht über verschiedene Hadoop-Distributionen
     
  • Konfiguration des Hadoop-Clusters:
    - Apache Hadoop
    - Hortonworks HDP
    - Cloudera CDH
     
  • praktische Anwendung von Hadoop
    - Interaktion mit HDFS
    - Entwicklung von MapReduce Jobs und Verwendung der Streaming API
    - Big Data SQL Queries mit Hive und HiveQL
    - komplexe MapReduce Jobs mit Pig
    - Daten Import/Export aus SQL-Datenbanken mit sqoop
    - Echtzeit-Datenverwaltung mit HBase
    - konsistentes Cluster-Management mit Zookeeper
    - Streak Processing mit Kafka

18:00 Uhr Ende des 1. Workshoptages


Pausen:

ca. 12:00 - 13:00 Uhr Mittagspause
zwischendurch 2 x Kaffeepause von ca. 15 - 30 Minuten

Tag 2 (09:00 bis 17:00 Uhr)


09:00 Uhr Beginn des Workshops

  • manuelle Cluster-Installation mit Apache Hadoop
    - Stand-Alone/Entwickler-Modus
    - Distributed Mode
    - HDFS-Konfiguration
    - YARN-Konfiguration
     
  • Installation von Hortonworks HDP
    - System-Vorbereitung 
    - Installation von Ambari
    - Installation von HDP
     
  • Einführung in Spark 2
    - Spark vs. Hadoop
    - Spark Data Frames
    - Spark SQLp

17:00 Uhr Ende des 2. Workshoptages

 

Pausen:

ca. 12:00 - 13:00 Uhr Mittagspause
zwischendurch 2 x Kaffeepause von ca. 15 - 30 Minuten
Workshop, iX

Veranstaltungsort:

qSkills GmbH & Co. KG
Südwestpark 65
90449 Nürnberg

www.qskills.de

 

Hotelzimmer:

Sie benötigen noch eine Übernachtungsmöglichkeit zur Teilnahme an unserem Workshop? Wir haben Ihnen ein begrenztes Zimerkontingent (abrufbar bis zum 19. Oktober 2018) im Novina-Hotel (Südwestpark 5, 90449 Nürnberg) eingerichtet. Der Preis liegt bei 81 Euro pro Nacht und Zimmer (inkl. Frühstück).

Bitte wenden Sie sich mit dem Stichwort "HEISE über qSkills" direkt an das Hotel und buchen Sie Ihr gewünschtes Zimmer telefonisch unter +49 911 67060.

Ihr Referent des Workshops wird gestellt von: B1 Systems GmbH.

Haben Sie noch Fragen zur Anmeldung oder zum Workshop?​

Silvia Langer

E-Mail: sil@heise.de