martedì 24 febbraio 2026

Data Specialist

Autore annuncio:
Michael Page International
Zona lavoro:
Torino , Torino
Pubblicazione:
30 gennaio 2026

Descrizione offerta:

Categoria: Technology & Telecoms
Luogo di lavoro: Torino

Stiamo cercando un* Data Engineer / Cloud Data Specialist altamente qualificat* con esperienza nella progettazione, implementazione e gestione di piattaforme dati su cloud. La figura lavorerà a stretto contatto con team di business e IT per sviluppare soluzioni scalabili e moderne, sfruttando tecnologie come Snowflake, Power BI e i principali servizi dei cloud provider GCP, AWS e Azure.


  • Progettare e implementare data pipeline e processi di integrazione dati ad alte prestazioni.
  • Gestire e ottimizzare ambienti Snowflake, inclusi data modeling, performance tuning e sicurezza.
  • Sviluppare dashboard e report avanzati con Power BI, garantendo qualità, fruibilità e governance del dato.
  • Sfruttare servizi cloud (GCP, AWS, Azure) per storage, orchestrazione, elaborazione dati, sicurezza e automazione.
  • Collaborare con Data Scientist, Business Analyst e team di progetto per definire requisiti e proporre soluzioni architetturali efficaci.
  • Assicurare standard elevati in termini di qualità, documentazione e monitoraggio dei flussi dati.

Requisiti: Laurea in Informatica, Matematica o discipline affini. Solida esperienza con Snowflake Data Cloud (SQL avanzato, data modeling, Snowpipe, Streams & Tasks, performance tuning) Competenza in Power BI (modellazione dati, DAX, sviluppo dashboard, gestione su Power BI Service) Conoscenza dei servizi GCP: BigQuery, Cloud Storage, Dataflow, Pub/Sub, Cloud Composer Conoscenza dei servizi AWS: Redshift, S3, Glue, Athena, Lambda Conoscenza dei servizi Azure: Data Factory, Synapse/SQL, Data Lake Storage, Databricks Capacità di sviluppo in Python per ETL, automazioni e data transformation Familiarità con Git e sistemi di versioning Esperienza con pipeline CI/CD (Azure DevOps, GitHub Actions, ecc.) Esperienza nella orchestrazione di flussi dati (Airflow, ADF o Cloud Composer) Conoscenza di architetture data lake / lakehouse Competenze nella sicurezza dati e gestione dei permessi (IAM) Capacità di implementare logging & monitoring delle pipeline e dei sistemi

Per visualizzare come contattare l'inserzionista devi essere registrato

Siti partner