AWS-BD
Big Data in AWS

Übersicht

Zielgruppe

Dieses Seminar wendet sich an Verantwortliche für die Konzeption und Umsetzung von Big Data-Lösungen: d. h.
Solutions Architects und Big Data-Manager und Big Data-Analysten, die sich für Big Data-Lösungen in AWS interessieren.

Hinweise

Dieses Seminar wird in Kooperation mit der TÜV Rheinland Akademie durchgeführt.

Dauer

3 Tage

Lernziele

In diesem Seminar erlernen die Teilnehmer das Integrieren von AWS-Lösungen in ein Big Data-Ökosystem, die Nutzung von Apache Hadoop im Kontext von Amazon EMR, das Identifizieren der Komponenten eines Amazon EMR-Clusters und das Starten und Konfigurieren eines Amazon EMR-Clusters.
Wir erklären die Verwendung gängiger Programmierungs-Frameworks, die für Amazon EMR zur Verfügung stehen,
wie z. B.Hive, Pigund Streaming, das Nutzen von Hue zur Verbesserung der Benutzerfreundlichkeit von Amazon EMR, das Verwenden der speicherresidenten Analyse mit Spark und Spark SQL auf Amazon EMR und das Auswählen der geeigneten AWS-Datenspeicherungsoptionen.
Nach dem Seminar sind die Teilnehmer in der Lage die Vorteile des Einsatzes von Amazon Kinesis für die Verarbeitung von Big Data beinahe in Echtzeit zu erkennen und wissen wie man Data Warehousing und Konzepte für spaltenbasierte Datenbanken definiert.
Zudem wird die Nutzung von Amazon Redshift erklärt, anhand dessen man Daten effizient speichert und analysiert. Sie erhalten zudem Einblick in die Verwaltung von Kosten und Sicherheit für Amazon EMR- und Amazon Redshift-Bereitstellungen.
Weiterhin umfasst das Seminar das Identifizieren von Optionen für das Einlesen, die Übertragung und die Komprimierung von Daten, die Nutzung der Visualisierungssoftware zur Darstellung von Daten und Abfragen und das Registrieren von Big DataWorkflows mithilfe von AWS Data Pipeline.

Voraussetzungen

  • Grundkenntnisse in Big Data-Technologien einschließlich Apache Hadoop und HDFS
  • Kenntnisse in Big Data-Technologien wie Pig, Hive und MapReduce sind hilfreich, aber nicht erforderlich
  • Arbeitskenntnisse der wichtigen AWS-Services und Implementierung öffentlicher Clouds
  • Teilnehmer müssen den Kurs AWS Technical Essentials (AWS-TE) absolviert haben oder eine ähnliche Erfahrung aufweisen
  • Grundlegendes Verständnis von Data Warehouses, relationalen Datenbanksystemen und Datenbank-Design

Inhalt

  • 1. Tag
    • Überblick über Big Data
    • Eingabe, Übertragung und Komprimierung von Daten
    • Speicherlösungen
    • Speichern und Abfragen von Daten in DynamoDB
    • Verarbeiten von Big Data und Amazon Kinesis
    • Einführung in Apache Hadoop und Amazon EMR
    • Verwenden von Amazon Elastic MapReduce
  • 2. Tag
    • Hadoop-Programmierungs-Frameworks
    • Verarbeiten von Serverprotokollen mit Hive auf Amazon EMR
    • Verarbeiten von Chemiedaten mithilfe von Hadoop Streaming auf Amazon EMR
    • Optimieren Ihrer Amazon EMR-Erfahrung mit Hue
    • Ausführen von Pig-Skripten in Hue auf Amazon EMR
    • Spark auf Amazon EMR
    • Interaktives Erstellen und Abfragen von Tabellen mit Spark und Spark SQL auf Amazon EMR
    • Kostenmanagement für Amazon EMR
    • Sichern Ihrer Amazon EMR-Bereitstellungen
  • 3. Tag
    • Data Warehouses und spaltenbasierte Datenspeicher
    • Amazon Redshift und Big Data
    • Optimieren Ihrer Amazon Redshift-Umgebung
    • Big Data-Designmuster
    • Visualisieren und Orchestrieren von Big Data
    • Verwenden von Tibco Spotfire zur Visualisierung von Big Data

Termine & Preise

2.685,00 EUR
Alle Preise verstehen sich zzgl. der gesetzlichen MwSt. Die Europreise gelten nur in Deutschland
Berlin
München
Köln
Kein passender Termin gefunden?Testen Sie unser Angebot 3toRUN
In den Warenkorb