10% di sconto per tutte le iscrizioni pervenute entro il 04/01/2019
La figura del Big Data streaming analytics Junior Expert è oggi molto ricercata da tutte le aziende all'avanguardia. Grazie alla conoscenza di metodologie e strumenti software in grado di analizzare dati real time provenienti da fonti diverse ed eterogenee, tale profilo estende notevolmente le capacità di azione delle aziende tradizionali. Questo corso è utile a chi vuole osservare l'andamento dei dati in tempo reale, che si tratti di gestire le richieste online per un sito e-commerce o monitorare delle risorse server per una startup/azienda. L'obiettivo finale è quello di estrarre significato dai dati anche al fine di determinare notevoli incrementi di fatturato.
Scenario
Gli “Analytics”, rappresentazione grafica o tabellare della conoscenza inferita dai dati, sono stati per anni lo strumento chiave per visualizzare i dti ed indirizzare le decisioni di business. L'utilizzo di questi strumenti, però, è limitato ad ambiti di analisi in cui il contesto è poco variabile nel tempo o in cui la mole di dati gestiti è relativamente ridotta.
Il mondo iperconnesso in cui viviamo, dove grandi quantità di dati (Big Data) vengono prodotti da innumerevoli sorgenti, sia interne che esterne alle aziende, e in formati spesso non strutturati, richiede nuovi strumenti software per l'analisi dei dati.
I software e framework di “Streaming Analytics” si inseriscono in questo contesto: analizzano ed eseguono azioni su dati in tempo reale attraverso l'utilizzo di query continue. Streaming Analytics si connette a fonti dati esterne, permette ad applicazioni esistenti di integrare i dati prodotti o di aggiornare un database esterno con informazioni elaborate.
Sintesi dei contenuti
In questo corso partiremo con un file text(Log) o un cvs che contiene milioni di righe di dati, per poi effettuare un ingestion e cleansing dei dati in tempo reale, in tutti modi utili, senza limiti. Impareremo come visualizzare i dati in Kibana, come effettuare operazione sui dati e come creare una dashboard usando Kibana.
Il corso è costituito da 4 moduli principali acquistabili anche separatamente:
- BIG DATA ANALYTICS - ELASTICSEARCH;
- BIG DATA COLLECTION & CLEANSING- LOGSTASH;
- BIG DATA MONITORING & VISUALIZATION - KIBANA;
- BIG DATA ANALYTICS & MONITORING - GRAFANA.
Prenota il tuo colloquio individuale per conoscere i dettagli delle singole unità didattiche!
Quali sono i requisiti?
È necessario possedere le seguenti conoscenze: conoscenze base di programmazione, conoscenza base linguaggi di script, conoscenze base di XML, conoscenze base di sistemi linux.
Sarà possibile definire con la direzione dell'accademia un percorso formativo o accedere al modulo base Big Data Entry Level.
Coloro che possiedono già queste conoscenze potranno iscriversi direttamente a uno o tutti i moduli formativi Big Data.
Cosa otterrò da questo corso?
Una preparazione che permetta di acquisire il know-how dell'intero ciclo di Project Management, analisi requisiti, sviluppo applicazione, test e collaudo. Sviluppare nuove tecnologie Web e analisi dei BIG Data.
Dotazioni tecniche base
Minimi
CPU dual core 64-bit on x86-64
RAM 4GB
Consigliati
CPU i3-4th o i5-3rd o superiore (3mb cache L3 es. i5-4210m)
Ram 8gb o più
Risoluzione schermo 1920*1080
Software: verrà fornita una macchina virtuale con del software preistallato ed eventualmente del software da istallare durante il corso.