Geek Academy
Workshop Big Data Framework: Hadoop

Workshop Big Data Framework: Hadoop


16 ore
di corso


Servizio Placement


2 Borse di studio


7% di sconto per tutte le iscrizioni pervenute entro il 27/07/2018

RICHIEDI INFORMAZIONI ACQUISTA ORA

Il termine NoSQL è stato coniato per definire basi di dati che non utilizzano il classico modello relazionale. Questo corso ha lo scopo di fornire agli studenti una conoscenza professionale di questi database, ed è composto da due moduli acquistabili singolarmente: HBASE e HADOOP.

Scenario
Hadoop è il più noto framework per l'elaborazione di enormi data-set su un cluster di macchine. Rilasciato ufficialmente nel 2011, è diventato uno degli “strumenti” fondamentali della cassetta degli attrezzi per chi deve gestire grandi quantità di dati. 
Apache Hadoop Permette alle applicazioni di lavorare con migliaia di nodi e petabyte di dati ed offre una grande quantitá di librerie di semplice utilizzo. Permette di utilizzare il modello di programmazione MapReduce.

Abstract    
Durante il workshop, dopo una introduzione teorica, installeremo, configureremo il framework Hadoop e lanceremo l' “hello world” con MapReduce. 

Sintesi dei contenuti
Modulo 1: Introduzione. Cominceremo con il vedere i principali componenti del framework Hadoop, quali sono i vantaggi nell'utilizzarlo e alcuni use cases.
Modulo 2: HDFS, Namenode e Datanode. Vedremo le principali caratteristiche l'architettura dell'Hadoop Distributed File System. Introdurremo il concetto di Data Replication e di come Hadoop gestisce internamente questo processo.
Modulo 3: MapReduce. Vedremo la filosofia dietro questo algoritmo e quali sono le possibili applicazioni.
Modulo 4: Installazione e Configurazione Hadoop e primi programmi Mapreduce. Questo modulo in realtà non sarà logicamente separato dai precedenti, approfondendo ogni argomento contemporaneamente dal punto di vista teorico e pratico. Vedremo quali sono i passaggi fondamentali per la corretta configurazione di Hadoop in modalità standalone e muoveremo i primi passi nell'HDFS, per poi lanciare alcuni esempi di programi per MapReduce.

Cosa otterrò da questo workshop?
Con questo workshop muoverai i primi passi sul framework Hadoop. Imparerai ad installarlo e configurarlo e verrai a conoscenza dei principali aspetti teorici per poterlo sfruttare al meglio.

Quali sono i requisiti?
Nessuno. Tuttavia è consigliabile possedere una conoscenza di base di Big Data e di gestione di database. Tali competenze possono essere acquisite dai principianti frequentando il corso base Big Data Entry Level.

È possibile acquistare i due workshop insieme aMongoDB 4 Data Engineer.

Dotazioni tecniche
E' preferibile avere un pc con Mac OS X o qualsiasi distribuzione Linux.

RICHIEDI INFORMAZIONI ACQUISTA ORA

Edizione novembre 2018 in programma, date da definire.

Formula: Weekend

Durata: 16 ore

Dal 23/02/2019

N° posti disponibili: 5

Capienza: 12 posti

Sede di svolgimento:

ROMA METRO COLOSSEO

via della Consulta, 52, 00184 Roma

Docenti del corso: