Geek Academy
Big Data Framework Hadoop - Palermo

Big Data Framework Hadoop - Palermo

Hadoop è il più noto framework per l'elaborazione di enormi data-set distribuiti su cluster di macchine. Rilasciato ufficialmente nel 2011, è diventato uno degli “strumenti” fondamentali della cassetta degli attrezzi per chi deve gestire grandi quantità di dati. Hadoop è più diffuso nelle aziende per la sua capacità di trarre vantaggi e valore dei dati.


32 ore
di corso


Servizio Placement


2 Borse di studio


10% di sconto per tutte le iscrizioni pervenute entro il 15/03/2019

RICHIEDI INFORMAZIONI ACQUISTA ORA

Scenario
Apache Hadoop permette alle applicazioni di lavorare con migliaia di nodi e petabyte di dati ed offre una grande quantitá di librerie di semplice utilizzo. I vantaggi di Hadoop risiedono nelle sue caratteristiche di agilità e di flessibilità: i dati sono semplicemente copiati nel file system, non è richiesto nessun tipo di trasformazione. Lo Schema dei dati avviene in fase di lettura ed essi vengono estratti durante questa fase. I nuovi dati possono essere aggiunti ed estratti in qualsiasi momento, senza nessun impatto. I dati possono essere: semi-strutturati, destrutturati, log file, audio, immaginie, email, ecc.

Sintesi dei contenuti
Modulo 1
(primo weekend)
Hadoop: tecnologie ed elaborazione dati

- Introduzione: principali componenti del framework Hadoop (25 tecnologie)
- gestione risorse, file e interfaccia dell'utente
- elaborazionedati: relazionali non relazionali (Hive, Sqoop, Hbase, Pig, Cassandra)
- query interattive (Drill, Phonix, Presto)

Modulo 2 (secondo weekend)
Real-time Sentiment Analysis con Hadoop

- Data streaming con Hadoop: Kafka Flume, Scala
- Spark streaming
- sentiment analysis con Flume e Hive

Cosa otterrò da questo corso?
Con questo corso potrai muovere i primi passi sul framework Hadoop. Imparerai ad installarlo e configurarlo e verrai a conoscenza dei principali aspetti teorici per poterlo sfruttare al meglio.
In particolare: imparerai le tecnologie indispensabili per usare Hadoop; elaborerai dati di tutti i tipi; lavorerai con i dati in tempo reale. In ambito sentiment analysis acquisirai le competenze per  identificare ed estrarre informazioni soggettive da diverse fonti ad un primo levello di lavorazione. Potrai poi in maniera autonoma approfondire tutti i potenziali ambiti di utilizzo

Quali sono i requisiti?
Modulo 1
conoscenze base di DB relazionali, sistema linux, macchine virtuali
Queste conoscenze possono essere acquisite dai principianti frequentando il corso base Big Data Entry Level.
Modulo 2
Conoscenze base di Python.
Conoscenze base di DB non-relazionali (MongoDB)

Dotazioni tecniche
È preferibile avere un pc con Mac OS X o qualsiasi distribuzione Linux.
Requisiti consigliati
CPU dual core 64-bit; RAM 16gb (ideale per importare l amacchina virtuale completa di tutte le tecnologie necessarie)
Requisiti minimi
CPU dual core 64-bit; RAM 8gb (si installeranno le tecnologie di volta in volta)

RICHIEDI INFORMAZIONI ACQUISTA ORA

Modulo 1: 8 ore di lezione in classe + 8 ore in videoconferenza online con il docente

Formula: Weekend

Durata: 32 ore

Dal 11/05/2019

N° posti disponibili: 10

Capienza: 12 posti

Sede di svolgimento:

PALERMO STAZIONE NOTARBARTOLO

via Giovanni Campolo, 92, 90145 Palermo

Docenti del corso: