Trouver la formation qui vous correspond.

Plus de 500 formations dans les domaines informatique, bureautique et développement professionnel
Generic selectors
Exact matches only
Search in title
Search in content
Search in posts
Search in pages
Filter by Categories
Actus
Financement
Formations
Non classé

Ex. : ExcelWordPhotoshopJavaAgile

Centre de formation Informatique et Ressources Humaines

Trouver la formation qui vous correspond.

Plus de 500 formations dans les domaines informatique, bureautique et développement professionnel
Generic selectors
Exact matches only
Search in title
Search in content
Search in posts
Search in pages
Filter by Categories
Actus
Financement
Formations
Non classé

Ex. : ExcelWordPhotoshopJavaAgile

Hadoop, développer des applications pour le Big Data

THBI1209

3 jours (21 heures) – Initiation / Fondamentaux

3 jours (21 heures)
Initiation / Fondamentaux

Formation : Hadoop, développer des applications pour le Big Data

Domaine : Informatique

Présentiel
Présentiel
Online
En ligne
Coût
1500€ HT

Objectifs pédagogiques

  • Construire un programme à base de Map Reduce
  • Intégrer Hadoop HBase dans un workflow d’entreprise
  • Travailler avec Apache Hive et Pig depuis HDFS
  • Utiliser un graphe de tâches avec Hadoop

Niveau requis

  • Avoir la connaissance d'un langage de programmation objet comme Java

Public concerné

  • Chefs de projets, développeurs, data scientists et toute personne souhaitant comprendre les techniques de développement avec MapReduce dans l'environnement Hadoop

Dates de formations

  • Aucune session est planifiée actuellement pour cette formation.

Programme de formation

3 jours (21 heures)

Initiation / Fondamentaux

Le Big Data

  • Définition du périmètre du Big Data
  • Le rôle du projet Hadoop
  • Les concepts de base des projets Big Data
  • Présentation du Cloud Computing
  • Différence entre Cloud Computing privé et public
  • Les architectures Big Data à base du projet Hadoop

Collecte de données et application de Map Reduce

  • Analyse des flux de données dans l’entreprise
  • Données structurées et non-structurées
  • Les principes de l’analyse sémantique des données d’entreprise
  • Graphe des tâches à base de MapReduce
  • La granularité de cohérence des données
  • Transfert de données depuis un système de persistance dans Hadoop
  • Transfert de données d’un Cloud dans Hadoop

Le stockage des données avec HBase

  • Plusieurs types de base de données XML
  • Patterns d’usages et application au Cloud
  • Application de Hadoop database au sein d’un workflow
  • Utilisation des projets Hive/Pig
  • Utilisation du projet HCatalog
  • L’API Java HBase

Le stockage des données sur HDFS

  • Patterns d’usages et application au Cloud
  • Architecture et installation d’un système HDFS, journal, NameNode, DataNode
  • Opérations, commandes et gestion des commandes
  • L’API HDFS Java
  • Analyse de données avec Apache Pig
  • Le langage Pig Latin. Utiliser Apache Pig avec Java
  • Requêtage avec Apache Hive
  • Réplication de données. Partage de données sur une architecture HDFS

Spring Data Hadoop

  • Introduction à Spring et Spring Data
  • Le namespace Hadoop pour Spring
  • Utiliser Spring pour simplifier la configuration Hadoop
  • Configuration du cache distribué
  • Définition des Jobs et dépendance entre Jobs
  • Intégration des outils (Pig, Hive…)

Qualité et certification

Rejoignez-nous