Curriculum Vitae
Esperienze lavorative
-
Giugno 2022 - Presente
DATA ENGINEER
Revelio Labs
Revelio Labs raccoglie milioni di profili utente e annunci di lavoro in un unico posto, creando un database per il mercato del lavoro. Questo permette sia di studiare le ultime tendenze del mondo lavorativo, che di ricostruirne lo storico dei cambiamenti nel tempo. Come Data Engineer mi occupo dell'acquisizione e caricamento di questi dati nel DB principale; questo include anche la pulizia e standardizzazione dei dati grezzi, e l'integrazione con quelli esistenti.
- Ho riprogettato il processo principale di integrazione dati dell'azienda, rendendolo più efficiente, robusto e leggero. Ho anche fatto in modo che venisse eseguito su base giornaliera in modo completamente automatico, a differenza dell'esecuzione manuale e mensile utilizzata in precedenza.
- Gestisco numerosi processi di acquisizione di diversi tipi di dati nel database principale; questo comprende l'aggiunta di nuove funzionalità, la manutenzione nel tempo e il controllo sulla consistenza dei dati.
- Sono responsabile del flusso giornaliero di milioni di record/terabyte di dati.
- Mi sono occupato della migrazione dell'intera base di conoscenza verso una nuova data warehouse, scrivendo un modulo python che clona le tabelle nella destinazione, mantenendo lo schema e i vincoli presenti. Il modulo è stato utilizzato da decine di colleghi e centinaia di processi automatici.
-
Maggio 2018 - Maggio 2022
R&D SOFTWARE ENGINEER
Synapta
Ho iniziato a lavorare in Synapta non appena conclusi gli studi e ho continuato questa collaborazione in parallelo all'attività prevista dalla borsa di studio. Mi sono occupato principalmente di analisi di dati e sviluppo software con algoritmi di intelligenza artificiale, e dell'integrazione lato backend di queste applicazioni. La maggior parte del lavoro è orientata al sito contrattipubblici.org, ma occasionalmente ho lavorato anche ad altri progetti minori.
- Ho applicato diverse tecniche analisi di dati, analisi del linguaggio naturale (NLP) e machine learning per derivare nuove informazioni dalla base di conoscenza esistente
- Ho individuato e classificato i riferimenti alla normativa ISO 9001 all'interno dei documenti della pubblica amministrazione utilizzando tecniche di information extraction e machine learning.
- Ho studiato strategie per l'analisi out-of-core di grandi volumi di dati con diverse tecniche di machine learning
- Principale sviluppatore lato backend e QA analyst di contrattipubblici.org
- Ho configurato e monitorato i principali servizi dell'azienda su server dedicati, secondo principi di ridondanza dei dati e alta disponibilità dei servizi
- Ho curato l'intero processo di sviluppo di circa 250000 nuovi documenti (ricerca tramite API, download e aggiunta al database, Optical Character Recognition (OCR), classificazione e indicizzazione all'interno di un motore di ricerca)
- Ho rinnovato il progetto TellMeFirst riscrivendolo da zero in python in modo più chiaro, breve e modulare, e rendendolo disponibile come un'API.
- Ho Lavorato all'app per dispositivi Android BandiPubblici, in particolare ho gestito lo sviluppo backend e integrazione con i servizi esistenti, il rilascio sul play store, e gli acquisti in-app.
- Ho sviluppato l'intera parte backend del sito Data for Citizen Engagement per la Fondazione Compagnia di San Paolo, incluso il calcolo delle metriche di ogni singolo grafico a partire dai dati originali.
- Ho lavorato al progetto Wiki Loves Monuments sviluppando una maschera di inserimento delle autorizzazioni, per Wikimedia Italia.
-
Giugno 2018 - Giugno 2019
RICERCATORE PER IL PROGETTO REPOSUM
Università degli Studi di Torino & Synapta
La borsa di studio, bandita dal Dipartimento di Filosofia e Scienze dell’Educazione di UniTo, prevede l'annotazione, analisi e rappresentazione di un corpus di metadati su tesi di dottorato italiane ed estere usando tecniche di information extraction, natural language processing e machine learning. Ho collaborato a stretto contatto con i membri del Dipartimento di Filosofia e di Informatica per raggiungere gli obiettivi di ricerca.
- Ho presentato i risultati di ricerca ottenuti dal nostro team nella conferenza IRCDL di Pisa nel 2019.
- Classificazione delle tesi di filosofia utilizzando approcci di machine learning ibridi
- Determinazione dell'argomento delle tesi con startegie di topic modeling
- Estrazione di features dai documenti con tecniche bag-of-words, entity recognition, entity linking
- Studio e applicazione di tecniche di graph mining per individuare collegamenti a livello semantico tra documenti diversi
- Ho riscritto in python il tool RelFinder per poterlo utilizzare in modo programmatico nell'attività di ricerca
Leggi la relazione finale del lavoro di ricerca.
-
Aprile 2015 - Settembre 2015
STAGE DI RICERCA CON TEMA HUMAN ACTIVITY INTERPRETATION
Cognitive Systems Group (Universität Bremen)
Il Cognitive Systems Group (CoSy) è un centro di ricerca dell'Università di Brema che studia il modo in cui la mente umana processa le informazioni dello spazio e degli eventi circostanti, e sviluppa strumenti che aiutano le persone a svolgere tali compiti. Ho lavorato per 6 mesi in qualità di ricercatore, finanziato dal programma europeo ERASMUS+. Ho avuto l'occasione di collaborare con un team multidisciplinare e multiculturale nell'ambito di un progetto di ricerca a livello europeo (Cognitive Vision).
- Stima del movimento della telecamera basata sul moto percepito nella scena
- Applicazione di diverse tecniche di face recognition nel campo del cinema
- Addestramento di modelli per il riconoscimento di forme e oggetti
Istruzione
-
Settembre 2015 - Aprile 2018
LAUREA MAGISTRALE IN INGEGNERIA INFORMATICA
Politecnico di Torino
Ho scelto l'indirizzo Software in lingua inglese includendo esami a scelta del percorso Data Science. Ho svolto l'attività di Tesi nell'Istituto Superiore Mario Boella (ISMB), un centro di ricerca fortemente orientato all'innovazione. Il mio lavoro consiste nel determinare la personalità degli utenti di Twitter sulla base dei loro tweet usando tecniche di machine learning e natural language processing.
- Tesi: Semantic Analysis to Compute Personality Traits From Social Media Posts
- Leggi la tesi a questo link (TLDR; guarda la presentazione)
- Voto finale: 99/110
-
Settembre 2011 - Marzo 2015
LAUREA IN INGEGNERIA INFORMATICA
Università degli Studi Dell'Aquila
Ho lavorato alla Tesi nel centro di eccellenza DEWS, con l'obiettivo di sviluppare e testare un database locale per un sistema di face recognition su piattaforma embedded.
- Tesi: Design, implementation and exploitation of a Database to support an embedded face recognition system
- Voto finale: 102/110
-
Settembre 2006 - Luglio 2011
DIPLOMA DI MATURITÀ SCIENTIFICA
Liceo Scientifico "A. Bafile", L'Aquila
Liceo Scientifico Sperimentale PNI (Piano Nazionale Informatica).
- Voto: 93/100
Pubblicazioni
- Carducci, G., Rizzo, G., Monti, D., Palumbo, E., Morisio, M., TwitPersonality: Computing Personality Traits from Tweets using Word Embeddings and Supervised Learning, Multidisciplinary Digital Publishing Institute (MDPI), 2018. doi.org/10.3390/info9050127
- Carducci G., Leontino M. Radicioni, D. P. Bonino, G., Pasini E., Tripodi P., Semantically Aware Text Categorisation for Metadata Annotation, Italian Research Conference on Digital Libraries (IRCDL), 2018. https://doi.org/10.1007/978-3-030-11226-4_25
Competenze
- Python, Javascript
- SQL
- HTML, CSS
- Bash
- MySQL, PostgreSQL, Redshift, Snowflake
- Elasticsearch
- Scikit-learn
- Pyspark
- Node.js
- Cloud Computing
- Natural Language Processing
- Git
- Windows, Linux
- Adobe Photoshop, Lightroom
- GIMP
- Sony Vegas
Corsi e Certificati
Machine Learning by Andrew Ng
Coursera
IELTS 7.5 (CEFR C1)
British Council
CCNA Routing and Switching
CISCO Networing Academy
Corso intensivo di inglese
CES Oxford Centre of English Studies Wheatley (UK)
Company Creation
Starboost
Interessi e Passioni