Geek Academy
Real Time Sentiment Analysis con Hadoop @Milano

Real Time Sentiment Analysis con Hadoop @Milano

Hadoop è il più noto framework per l'elaborazione di enormi data-set distribuiti su cluster di macchine. Rilasciato ufficialmente nel 2011, è diventato uno degli “strumenti” fondamentali della cassetta degli attrezzi per chi deve gestire grandi quantità di dati. Hadoop è più diffuso nelle aziende per la sua capacità di trarre vantaggi e valore dei dati.


32 ore
di corso


Servizio Placement


10% di sconto per tutte le iscrizioni pervenute entro il 31/07/2019

RICHIEDI INFORMAZIONI ACQUISTA ORA

Scenario
Apache Hadoop permette alle applicazioni di lavorare con migliaia di nodi e petabyte di dati ed offre una grande quantitá di librerie di semplice utilizzo. I vantaggi di Hadoop risiedono nelle sue caratteristiche di agilità e di flessibilità: i dati sono semplicemente copiati nel file system, non è richiesto nessun tipo di trasformazione. Lo Schema dei dati avviene in fase di lettura ed essi vengono estratti durante questa fase. I nuovi dati possono essere aggiunti ed estratti in qualsiasi momento, senza nessun impatto. I dati possono essere: semi-strutturati, destrutturati, log file, audio, immaginie, email, ecc.

Sintesi dei contenuti
Modulo 1
Hadoop: tecnologie ed elaborazione dati

- Introduzione: principali componenti del framework Hadoop (25 tecnologie)
- gestione risorse, file e interfaccia dell'utente
- elaborazionedati: relazionali non relazionali (Hive, Sqoop, Hbase, Pig, Cassandra)
- query interattive (Drill, Phonix, Presto)

Modulo 2
Real-time Sentiment Analysis con Hadoop

- Data streaming con Hadoop: Kafka Flume, Scala
- Spark streaming
- sentiment analysis con Flume e Hive

Cosa otterrò da questo corso?
Con questo corso potrai muovere i primi passi sul framework Hadoop. Imparerai ad installarlo e configurarlo e verrai a conoscenza dei principali aspetti teorici per poterlo sfruttare al meglio.
In particolare: imparerai le tecnologie indispensabili per usare Hadoop; elaborerai dati di tutti i tipi; lavorerai con i dati in tempo reale. In ambito sentiment analysis acquisirai le competenze per  identificare ed estrarre informazioni soggettive da diverse fonti ad un primo levello di lavorazione. Potrai poi in maniera autonoma approfondire tutti i potenziali ambiti di utilizzo

Quali sono i requisiti?
Modulo 1
conoscenze base di DB relazionali, sistema linux, macchine virtuali
Queste conoscenze possono essere acquisite dai principianti frequentando il corso base Big Data Entry Level.
Modulo 2
Conoscenze base di Python.
Conoscenze base di DB non-relazionali (MongoDB)

Dotazioni tecniche
È preferibile avere un pc con Mac OS X o qualsiasi distribuzione Linux.
Requisiti consigliati
CPU dual core 64-bit; RAM 16gb (ideale per importare l amacchina virtuale completa di tutte le tecnologie necessarie)
Requisiti minimi
CPU dual core 64-bit; RAM 8gb (si installeranno le tecnologie di volta in volta)

RICHIEDI INFORMAZIONI ACQUISTA ORA

Formula: Weekend

Durata: 32 ore

Dal 28/09/2019

N° posti disponibili: 1

Capienza: 10 posti

Sede di svolgimento:

MILANO METRO CENTRALE

via Copernico, 38, Milano

Docenti del corso: