Geek Academy
Workshop Big Data Framework: HBase & Hadoop

Workshop Big Data Framework: HBase & Hadoop

Workshop componibile su misura. Parte I: HBASE. Parte II: Apache HADOOP.


20 ore
di corso


Servizio Placement


2 Borse di studio


10% di sconto per tutte le iscrizioni pervenute entro il 24/01/2018

RICHIEDI INFORMAZIONI ACQUISTA ORA

Il termine NoSQL è stato coniato per definire basi di dati che non utilizzano il classico modello relazionale. Questo corso ha lo scopo di fornire agli studenti una conoscenza professionale di questi database, ed è composto da tre moduli acquistabili singolarmente.  HABASE; HADOOP; MONGODB.

Parte I
INTRODUZIONE AD HBASE

24/02/2018 dalle 10:00 alle 13:30

Scenario
Hbase è un database sviluppato e mantenuto all'interno del progetto Apache Hadoop e modellato sulla base di BigTabel di Google. E' un database che si presta allo storage di enormi quantità di dati strutturati e si qualifica pertanto come un datastore per Big Data dotato di elevata scalabilità. E' open source e progettato per accessi casuali e consistenza stretta in tempo reale per tabelle con miliardi di righe e milioni di colonne. Il modello di dati, il throughput e la tolleranza ai guasti offerti da Apache HBase lo rendono ideale per i carichi di lavoro previsti da tecnologie pubblicitarie, analisi Web, servizi finanziari, applicazioni con dati di serie storiche e da molti altri processi che devono gestire grandi quantità di dati.

Abstract    
Durante il workshop, dopo una breve introduzione teorica, installeremo, configureremo e muoveremo i primi passi su Hbase.

Sintesi dei contenuti
Modulo 1: Introduzione: Breve excursus storico. Principali caratteristiche. Quando e perché scegliere Hbase.
Modulo 2: Installazione e Configurazione. 
Modulo 3: Primi passi con Hbase. Vedremo come gestire le principali operazioni sui dati in tabella.

Cosa otterrò da questo workshop?
Con questo workshop muoverai i primi passi con Hbase. Imparerai ad installarlo e configurarlo e verrai a conoscenza dei principali aspetti teorici per poterlo sfruttare al meglio.

Parte II
INTRODUZIONE AD HADOOP
25/02/2018 dalle 10:00 alle 17:40

Scenario
Hadoop è il più noto framework per l'elaborazione di enormi data-set su un cluster di macchine. Rilasciato ufficialmente nel 2011, è diventato uno degli “strumenti” fondamentali della cassetta degli attrezzi per chi deve gestire grandi quantità di dati. 
Apache Hadoop Permette alle applicazioni di lavorare con migliaia di nodi e petabyte di dati ed offre una grande quantitá di librerie di semplice utilizzo. Permette di utilizzare il modello di programmazione MapReduce.

Abstract    
Durante il workshop, dopo una introduzione teorica, installeremo, configureremo il framework Hadoop e lanceremo l' “hello world” con MapReduce. 

Sintesi dei contenuti
Modulo 1: Introduzione. Cominceremo con il vedere i principali componenti del framework Hadoop, quali sono i vantaggi nell'utilizzarlo e alcuni use cases.
Modulo 2: HDFS, Namenode e Datanode. Vedremo le principali caratteristiche l'architettura dell'Hadoop Distributed File System. Introdurremo il concetto di Data Replication e di come Hadoop gestisce internamente questo processo.
Modulo 3: MapReduce. Vedremo la filosofia dietro questo algoritmo e quali sono le possibili applicazioni.
Modulo 4: Installazione e Configurazione Hadoop e primi programmi Mapreduce. Questo modulo in realtà non sarà logicamente separato dai precedenti, approfondendo ogni argomento contemporaneamente dal punto di vista teorico e pratico. Vedremo quali sono i passaggi fondamentali per la corretta configurazione di Hadoop in modalità standalone e muoveremo i primi passi nell'HDFS, per poi lanciare alcuni esempi di programi per MapReduce.

Cosa otterrò da questo workshop?
Con questo workshop muoverai i primi passi sul framework Hadoop. Imparerai ad installarlo e configurarlo e verrai a conoscenza dei principali aspetti teorici per poterlo sfruttare al meglio.

Quali sono i requisiti?
Nessuno. Tuttavia è consigliabile possedere una conoscenza di base di Big Data e di gestione di database. Tali competenze possono essere acquisite dai principianti frequentando il corso base Big Data Entry Level.

È possibile acquistare i due workshop insieme aMongoDB 4 Data Engineer.

Dotazioni tecniche
E' preferibile avere un pc con Mac OS X o qualsiasi distribuzione Linux.

RICHIEDI INFORMAZIONI ACQUISTA ORA

Il workshop è composto da due moduli acquistabili singolarmente (HBASE e HADOOP) e può essere acquistato insieme al corso su Mongo DB.

Formula: Weekend

Durata: 20 ore

Dal 24/02/2018 al 25/02/2018

N° posti disponibili: 5

Capienza: 12 posti

Sede di svolgimento:

ROMA METRO COLOSSEO

via della Consulta, 52, 00184 Roma

Docenti del corso: