Inhalt
Beschreibung:
Der Kurs "Big Data in AWS" bietet eine Einführung in Cloud-basierte Big Data-Lösungen und Amazon Elastic MapReduce (EMR), die AWS-Plattform für Big Data.
In diesem Seminar zeigen wir Ihnen, wie Sie Amazon EMR zum Verarbeiten von Daten mithilfe des umfassenden Angebots an Hadoop-Tools wie beispielsweise Pig und Hive einsetzen. Sie erfahren außerdem, wie Sie Big Data-Umgebungen erstellen, mit Amazon DynamoDB und Amazon Redshift arbeiten, welche Vorteile Amazon Kinesis bietet und wie Sie durch Befolgen bewährten Methoden sichere und wirtschaftliche Big Data-Umgebungen einrichten.
Folgende Themen werden in diesem Seminar fokussiert:
- Verstehen von Apache Hadoop im Kontext von Amazon EMR
- Verstehen der Architektur eines Amazon EMR-Clusters
- Starten eines Amazon EMR-Clusters mithilfe eines geeigneten Amazon-Computerabbilds (AMI) und Amazon EC2-Instance-Typs
- Auswählen passender AWS-Datenspeicheroptionen für Amazon EMR
- Verstehen der Optionen für die Eingabe, Übertragung und Komprimierung von Daten zur Nutzung mit Amazon EMR
- Einsetzen gängiger Programmierungs-Frameworks, die für Amazon EMR zur Verfügung stehen, wie z. B. Hive, Pig und Streaming
- Implementieren einer Big Data-Lösung mithilfe von Amazon Redshift
- Nutzen von Software zur Visualisierung von Big Data
- Auswählen geeigneter Sicherheitsoptionen für Amazon EMR und Ihre Daten
- Ausführen von In-Memory-Datenanalysen mithilfe von Spark und Shark in Amazon EMR
- Auswählen passender Optionen zur wirtschaftlichen Verwaltung Ihrer Amazon EMR-Umgebung
- Verstehen der Vorteile der Nutzung von Amazon Kinesis für Big Data
Hinweis:
Kurssprache ist Deutsch, die Unterlagen sind in englischer Sprache (teilweise in digitaler Form).
Dieses Seminar führen wir in Kooperation mit der Fast Lane GmbH AWS Training Partner (ATP) durch.
Inhalt:
Modul 1:
- Übersicht über Big Data und Apache Hadoop
- Vorteile von Amazon EMR
- Architektur von Amazon EMR
- Verwenden von Amazon EMR
- Starten und Nutzen eines Amazon EMR-Clusters
- Allgemeine Programmierungs-Frameworks für Apache Hadoop
- Verwenden von Hive für die Analyse von Werbung
Modul 2:
- Andere Programmierungs-Frameworks für Apache Hadoop
- Verwenden von Streaming für biowissenschaftliche Analysen
- Übersicht: Spark und Shark für In-Memory-Analysen
- Verwenden von Spark und Shark für In-Memory-Analysen
- Kostenmanagement für Amazon EMR
- Übersicht über die Amazon EMR-Sicherheit
- Untersuchen der Amazon EMR-Sicherheit
- Eingabe, Übertragung und Komprimierung von Daten
Modul 3:
- Verwenden von Amazon Kinesis für die Verarbeitung von Big Data in Echtzeit
- Optionen für die Datenspeicherung in AWS
- Verwenden von DynamoDB mit Amazon EMR
- Übersicht: Amazon Redshift und Big Data
- Verwenden von Amazon Redshift für Big Data
- Visualisieren und Orchestrieren von Big Data
- Visualisieren von Big Data mit Tableau Desktop oder Jaspersoft BI
Voraussetzungen:
Wir empfehlen, dass die Teilnehmer an diesem Kurs die folgenden Voraussetzungen erfüllen:
- Grundkenntnisse in Big Data-Technologien einschließlich Apache Hadoop-, MapReduce-, HDFS- und SQL/NoSQL-Abfragen
- Teilnehmer müssen den Kurs Big Data Technology Fundamentals absolviert haben oder eine ähnliche Erfahrung aufweisen.
- Arbeitskenntnisse der wichtigen AWS-Services und Implementierung öffentlicher Clouds
- Teilnehmer müssen den Kurs AWS Technical Essentials (AWSE) absolviert haben oder eine ähnliche Erfahrung aufweisen.
- Grundlegendes Verständnis von Data Warehouses, relationalen Datenbanksystemen und Datenbank-Design
Abschluss: PC-COLLEGE Zertifikat