Geek Academy
Big Data Junior Expert - Data Editor - MI

Big Data Junior Expert - Data Editor - MI

Il Data Editor è un moderno profilo capace di orientarsi e gestire prodotti basati sull’analisi e l’interpretazione di complessi modelli dati. È oggi necessaria una combinazione di competenze ed esperienze, e la capacità di gestire strumenti complessi creare vedute di sintesi che consentano di poter decidere in modo efficace o comunicare in modo semplice ed accessibile i risultati delle analisi.


240 ore
di corso


Servizio Placement


4 Borse di studio


20% di sconto per tutte le iscrizioni pervenute entro il 15/12/2017

RICHIEDI INFORMAZIONI ACQUISTA ORA

Abstract
Il Data Editor è un moderno profilo che consente in modo versatile di orientarsi e gestire prodotti basati sull'analisi e l'interpretazione di complessi modelli dati. Creare resoconti informativi, gestire la redazione di notizie attraverso i fatti o effettuare analisi in ambito aziendale, infatti oggi richiede sempre più una combinazione di competenze ed esperienze che spaziano dalla statistica all'intelligenza artificiale, sapendo gestire strumenti per manipolare la complessità e al tempo stesso creare delle viste di sintesi che consentano di poter decidere in modo efficace o comunicare in modo semplice ed accessibile i risultati delle analisi.

Scenario
La crisi dei modelli tradizionali, sia nella comunicazione che nei comparti industriali affiancata dall'ingresso delle tecnologie informatiche e dei dispositivi tecnologici personali oramai in qualsiasi settore, ha accelerato la necessità di rivedere interamente le filiere produttive e richiede continue trasformazioni da parte delle imprese per competere in un mercato sempre più ampio. L'utilizzo di tecnologie del software idonee alla complessità degli ambienti IT stanno portando ad una crescente domanda di capacità di nei mercati. Nuove leggi e regolamenti stanno costringendo le aziende a integrare il loro sistemi IT in sistemi che prevedono il trattamento di quantità di dati sempre più grandi e sempre più velocemente. Per adeguarsi a questa situazione, le strutture informatiche stanno cambiando a loro volta. Il budget IT delle corporate e delle imprese industriali e commerciali così come quello delle organizzazioni pubbliche sono impiegati nell'ottimizzazione dei processi di business e protese a migliorare la loro capacità di acquisire informazioni accurate per operare scelte efficaci. La necessità di dover gestire grandi quantità di dati, da fonti eterogenee e spesso aperte prevede l'integrazione delle proprie realtà nella cosiddetta “API Economy”, l'impiego di open data e quindi di adeguati strumenti per la loro archiviazione, aggiornamento, analisi e visualizzazione che, data la complessità richiedono l'utilizzo di strumenti di BigData Analytics e Intelligenza Artificiale

Sintesi dei contenuti
PRINCIPAL SUBJECTS: Statistica Descrittiva, Statistica Inferenziale, Strutture dati, Object-Oriented Programming, XML, Javascript,  Distributed Systems and Middleware, Web Technologies, SQL e NoSQL DB, GraphDB, Open Data, Web Of Data, Linked Data, BigData Exploration & Analytics

MODULO BASE: Conoscenze base di informatica; conoscenze base di rete; conoscenze base di XML; conoscenze base di sistemi linux; conoscenze base di macchine virtuali; database relazionali; programmazione Python; Java 1; intro a Javascript e Node JS; fondamenti di Big Data.

MODULO CARATTERIZZANTE
Basi Dati: SQL e NoSQL DB, GraphDB. Hadoop.
Geospatial: PostGIS, MongoDB, QGIS, Web Mapping, Neogeography.
Data Manipulation: CSV Toolkits, Open Refine.
Web Of Data: Open Data in Italia e nel mondo, Linked Data, RDF, OWL.
Data Integration: Apache NiFi.
Data Analytics: Apache Zeppelin.
Data Visualization: D3JS, Tableau, Quadrigram

MODULO INTEGRATIVO: Creative Thinking. Sviluppo soft skills. Inglese tecnico.

Richiedi un colloquio individuale per conoscere i dettagli delle singole unità didattiche.

Quali sono i requisiti?
Il corso è aperto anche ai principianti che dovranno frequentare il Modulo base: conoscenze base di programmazione; conoscenze base di XML; conoscenze base di rete; conoscenze base di sistemi linux; conoscenze base di macchine virtuali. 

Per coloro che possiedono già queste conoscenze potranno iscriversi direttamente al modulo caratterizzante.

Il corso è particolarmente indicato per Giornalisti Pubblicisti, Informatici, Ingegneri Gestionali ed Economisti, Grafici ed esperti della comunicazione visiva e marketing che andranno a acquisire le competenze per destreggiarsi con la complessità dei BigData.

Cosa otterrò da questo corso?
Una preparazione che permetta di acquisire il know-how dell'intero ciclo del Project Management, analisi requisiti, sviluppo applicazione, test e collaudo. Sviluppare nuove tecnologie Web e analisi dei BIG Data. 

Dotazioni tecniche base
Requisiti minimi
CPU dual core 64-bit on x86-64
RAM 8gb (4GB per O.S. + 4gb per V.M.)
Consigliati
CPU i5 o superiore
Ram 8gb o più
Risoluzione schermo 1920*1080
Software: Il corso prevede l'impiego di Software Open Source e di applicativi con versioni dimostrative.

RICHIEDI INFORMAZIONI ACQUISTA ORA

Vivi lontano da Milano? Il corso viene erogato anche presso la nostra sede di Roma! Le ore vanno intese come ore accademiche da 50 minuti.

Formula: Bootcamp 3 mesi

Durata: 240 ore

Dal 05/03/2018 al 15/05/2018

N° posti disponibili: 9

Capienza: 12 posti

Sede di svolgimento:

MILANO METRO SAN SIRO STADIO

Cascina Torrette, Via Giuseppe Gabetti 15, 20147 Milano

Docenti del corso: