Tecnico per l’analisi e la visualizzazione dei dati
Operazione RIF PA 2025-24065/RER, approvata con Deliberazione di Giunta Regionale n. 1238 del 28/07/2025 e cofinanziata con risorse del Fondo Sociale Europeo+ e della Regione Emilia-Romagna
Il Tecnico per l'analisi e la visualizzazione dei dati è un professionista digitale di ultima generazione in grado di acquisire, organizzare ed elaborare elevati volumi di dati digitali (Big Data) a supporto del management aziendale, al fine di prevedere eventi e trend futuri e favorire lo sviluppo di prodotti e servizi in linea con le richieste del mercato.
È una figura professionale che riesce a mixare sapientemente abilità analitiche, capacità di ragionamento matematico e statistico, competenze di programmazione e doti comunicative.
Possiede una solida conoscenza delle architetture e delle metodologie per la raccolta, archiviazione e analisi dei dati, impiega soluzioni software avanzate di data processing, tools di reporting e tecniche di data visualization.
Organizzazione del corso
Il corso prevede 800 ore suddivise nel seguente modo:
- formazione d'aula: 440 ore
- Project Work: 40 ore
- stage: 320 ore
A chi è rivolto
20 giovani e adulti, non occupati od occupati in possesso del diploma di istruzione secondaria superiore (preferibilmente a indirizzo informatico, multimediale e grafico), residenti o domiciliati in regione Emilia-Romagna in data antecedente all'iscrizione alle attività.
L’accesso è consentito anche a coloro che sono stati ammessi al quinto anno dei percorsi liceali e a coloro che sono in possesso del diploma professionale conseguito in esito ai percorsi di quarto anno di Istruzione e Formazione Professionale (Tecnico Grafico).
Inoltre, possono accedere anche persone non diplomate, previo accertamento delle competenze acquisite in precedenti percorsi di istruzione, formazione e lavoro.
Come funziona
L’ammissione al corso è subordinata al superamento di prove di selezione attitudinali, tecniche e colloquio motivazionale:
- la prova attitudinale (test scritti) è volta a misurare la capacità di esecuzione e riuscita in differenti aree significative per la figura professionale in uscita;
- la prova tecnica scritta per accertare la conoscenza di informatica, inglese;
- il colloquio individuale ha lo scopo di accertare la motivazione alla partecipazione e l'interesse per il settore specifico del corso, oltre alle capacità organizzative, di comunicazione efficace con gli altri e di lavorare in team.
I candidati che avranno perfezionato la procedura di iscrizione al corso riceveranno una mail di convocazione alle prove scritte di selezione che si terranno presso la sede IFOA di Bologna.
Tutti i partecipanti presenti alle prove scritte avranno accesso ai successivi colloqui individuali.
Cosa imparerai a fare
Il corso è finalizzato a formare uno specialista in grado di:
- identificare gli obiettivi dell'analisi dei dati con il management al fine di approntare la strategia più appropriata;
- raccogliere, organizzare e strutturare dati provenienti da fonti interne ed esterne all'azienda, ripulendo i database dai dati irrilevanti;
- analizzare i dati con metodi statistici e attraverso l’uso di tool specifici (Excel, SQL, Python, Apache, ecc);
- individuare schemi e trend attraverso l’impiego di tecniche di machine learning;
- presentare i risultati dell’analisi al management, utilizzando tools di reporting e tecniche di data visualization.
È in grado di mixare sapientemente abilità analitiche, capacità di ragionamento matematico e statistico, competenze di programmazione e doti comunicative.
Contenuti del corso
- I principi di utilizzo dei big Data e delle relative architetture e tecnologie
- Lo stack tecnologico HADOOP
- I sistemi NoSQL
- Progettazione concettuale: il modello E/R
- Progettazione logica: ristrutturazione degli schemi E/R, traduzione nel modello relazionale
- Tecniche di normalizzazione: forme normali, decomposizione in terza forma normale
- Introduzione ai Database Management Systems
- Modello relazionale: concetti base, vincoli di integrità e chiavi
- Linguaggio SQL
- MySQL
- MongoDB e Cassandra
- Introduzione ai linguaggi di programmazione
- Introduzione a Python e al dynamic typing
- Introduzione a Pandas
- Strutture dati principali: Series e DataFrame
- Filtraggio e selezione
- Modifica di righe e colonne
- Lettura di file CSV, Excel, JSON e SQL
- Identificazione dei dati mancanti
- Metodi di imputazione: fillna(), dropna(), interpolate()
- Applicazione di funzioni: apply(), map(), applymap()
- Concatenazione di DataFrame e join
- Pandas su excel
- Creazione ed analisi di dataframe su excel
- Introduzione al ML e casi d’uso
- Teoria degli algoritmi di ML (supervisionati, non supervisionati, con rinforzo, semisupervisionati)
- Framework open source ed esempi di Dataset: caricamento dati, training e parametri del modello
- Processo di implementazione algoritmi di ML: raccolta dati, data cleaning, costruzione del modello, crossvalidation, valutazione dei risultati
- Introduzione ai metodi non supervisionati: Clustering, dimensionality reduction
- Introduzione al K-means e DBSCAN
- Teoria del clustering gerarchico
- Agglomerativo e divisivo
- Analisi delle Componenti Principali (PCA) ed interpretazione dei risultati
- Anomaly Detection nella sensoristica: identificazione di pattern e anomalie
- Strumenti di predictive maintenance
- Introduzione al Text Mining
- Tokenizzazione
- Stop words, stemming, e lemmatizzazione
- Rappresentazione dei testi: Bag-of-Words, TF-IDF
- Frequenza di termini e analisi delle n-gram
- Word clouds
- Word2Vec, GloVe
- Text Classification con algoritmi di classificazione e Sentiment Analysis
- Concetto di API
- Fondamenti di HTTP
- Introduzione alle API RESTful
- Documentazione delle API
- Autenticazione e autorizzazione nelle API
- Consumo di API con linguaggi di programmazione
- Creazione di API RESTful
- Mappe strategiche e operational dashboard
- Data collection e Data Enrichment
- Data wrangling: organizzazione, pulizia e sistematizzazione dei dati
- Data Visualization: metodologie di rappresentazione dei dati
- Librerie Python: Pandas e Seaborne
- Tools di data visualization: Power BI e Tableau
- Marketing 4.0 e Data Driven Strategy
- Business Intelligence e Big Data
- Utilizzo di ChatGPT nei piani di marketing
- Disegnare e creare il data Warehouse
- Analisi multidimensionale dei dati
- Advanced Analytics: Pixel FB, Google Analytics
- Google Cloud e big data
- Big Data Analytics applicati su dati originati da Social Analytics e web
- Piattaforme e applicazioni digitali per manifattura avanzata e IoT
- Algoritmi di Big Data, Analytics e Intelligenza Artificiale
- Raccolta ed elaborazione dei dati all’interno di uno stabilimento produttivo
- Robotica collaborativa e automazione industriale
- Smart manufacturing: Simulazione e progettazione
Fase pratica di sperimentazione dei concetti appresi durante la formazione.
I partecipanti, suddivisi in piccoli gruppi, lavoreranno su un dataset reale (o simulato) fornito dai partner ed applicheranno metodi di analisi esplorativa per individuare trend significativi e generare insight utili.
Il percorso sarà organizzato in fasi:
- definizione del progetto e acquisizione del dataset
- raccolta e preparazione dei dati
- analisi e interpretazione
- creazione di dashboard interattive
- presentazione finale in aula
Certificazioni
- Certificato di specializzazione tecnica superiore
Estremi finanziamento
Operazione RIF PA 2025-24065/RER, approvata con Deliberazione di Giunta Regionale n. 1238 del 28/07/2025 e cofinanziata con risorse del Fondo Sociale Europeo+ e della Regione Emilia-Romagna
Note
Durante il processo di iscrizione ti verrà richiesto di caricare i seguenti documenti:
- copia della Dichiarazione sostitutiva di certificazione compilata (Scaricabile qui)
- copia della Carta d'identità
- copia del Codice Fiscale
- copia del Curriculum Vitae aggiornato
- foto tessera
