Senior DataOps Engineer - Italy Senior DataOps Engineer - Italy Being sick or injured is painful. Getting better shouldn’t be. Most industries have been transformed by new technology. Healthcare is still waiting — and you can help change that. Our mission is simple but ambitious: make healthcare accessible, transparent, and effortless for all. We put the consumer at the center, move fast and partner with forward-thinking providers to deliver software that makes care better, faster, and more human. This is work with real-world stakes — and you can help lead the way. Solv Health (Solv) è un’azienda americana fondata nel 2016, con sede a San Francisco, California. Solv sviluppa una piattaforma online di prenotazione e gestione di appuntamenti per pazienti. Sarai il responsabile dell’intersezione tra affidabilità della pipeline dati, qualità della modellazione e performance del database. Questo ruolo si trova al punto di incontro tra il team Data & Analytics e il team di Platform Engineering — ed esiste perché abbiamo bisogno di qualcuno che sappia tenere insieme entrambi i lati. Qualcuno che capisce perché un modello dbt è lento e sa risolverlo a livello di warehouse, non solo a livello SQL. In pratica, sarai il responsabile EU-timezone della nostra pipeline analytics quotidiana: la persona che mantiene dbt funzionante e in salute, che conosce Aurora e Redshift abbastanza in profondità da ottimizzare i modelli dati e prevenire il degrado delle performance del warehouse. È un ruolo concreto, da chi ama stare nel merito: lavorerai nel terminale, nell’editor SQL, direttamente sui sistemi — non nelle presentazioni. Modello di Lavoro Lavori con orari italiani. La collaborazione con il team US avviene prevalentemente in modalità asincrona — il team è in Pacific Time, quindi la sovrapposizione è limitata e si concentra verso la fine della tua giornata. La maggior parte della tua ownership avviene nelle ore EU: sei la persona che vede i problemi per prima e li risolve in autonomia, sapendo quando è il momento di coinvolgere il team oltreoceano. Abbiamo un ufficio a Verona: sei il benvenuto a lavorare in presenza (modalità ibrida, circa 3 giorni a settimana) oppure completamente da remoto se non sei nella zona — con la flessibilità di venire in ufficio quando possibile. Contratto a tempo indeterminato. Di Cosa Ti Occuperai Operazioni sulla Pipeline Dati Monitora e gestisci il triage EU delle failure giornaliere della pipeline dbt — errori di connessione, schema drift, type mismatch su JSON, timeout dei modelli — che occorrono durante la mattina italiana Mantieni e migliora l’affidabilità della pipeline: logiche di retry, soglie di alerting, runbook per le modalità di failure più comuni Collabora con il team analytics per fare debug dei problemi dati end-to-end, dai sistemi sorgente attraverso i modelli dbt fino alle dashboard Looker a valle Modellazione Dati & Qualità dbt Fai rispettare gli standard di modellazione dbt: naming convention, pattern di testing, schema design, documentazione Identifica e refactora i modelli costosi — riduci il runtime della pipeline, elimina CTE ridondanti, migliora il design dei modelli incrementali Revisiona i nuovi contributi ai modelli per le implicazioni sulle performance prima che raggiungano la produzione Contribuisci a far evolvere l’architettura di modellazione con la crescita dei volumi di dati Performance del Database & Infrastruttura Gestisci l’ottimizzazione delle performance di Redshift: WLM tuning, query profiling, analisi delle sort key e distribution key, configurazione dei data share Monitora e gestisci il connection pooling di Aurora (PgBouncer) — prevenzione dell’esaurimento delle connessioni, ottimizzazione delle dimensioni dei pool Supporta la valutazione e pianificazione di una potenziale migrazione Redshift → Snowflake Fornisci copertura infrastrutturale per gli incidenti al database layer e partecipa ai workflow operativi del team di piattaforma — deployment ArgoCD, modifiche Terraform — per le infrastrutture che toccano il data layer Tooling Analytics AI-Assisted Usa e migliora i tool AI-assisted (Claude Code, integrazioni dbt MCP) per il debug della pipeline e l’automazione analytics Supporta il team analytics nel far scalare gli agenti analytics AI interni verso funzionalità customer-facing Sarai Perfetto per Questo Ruolo se Hai 4+ anni in un ruolo di data engineering, analytics engineering o DataOps — con ownership di pipeline da cui altri dipendono Hai una solida esperienza in SQL e data modeling: hai preso decisioni architetturali reali su dataset reali e sai spiegarne i tradeoff Hai esperienza pratica con dbt in produzione — non solo nella scrittura di modelli, ma nella loro manutenzione, nel debug dei failure e nel presidio degli standard di qualità Hai competenze approfondite su un cloud data warehouse: Redshift o Snowflake — ottimizzazione delle query, gestione delle risorse/WLM, troubleshooting delle performance Conosci i fondamentali di PostgreSQL: indicizzazione, connection pooling, ottimizzazione delle query Hai un’ottima conoscenza dell’inglese — la collaborazione asincrona quotidiana avviene con il team US (PST) Sei a tuo agio nell’operare in autonomia nel fuso orario EU con una sovrapposizione limitata con gli US Competenze che Fanno la Differenza Redshift internals: sort key, distribution key, configurazione WLM queue, query profiling con SVL/STL Esperienza con Snowflake — pianificazione di migrazione o implementazione greenfield Familiarità con l’infrastruttura: lettura di Terraform, operazioni base su Kubernetes, comprensione dell’architettura EKS/Aurora Esperienza on-call con PagerDuty — hai già gestito un SLA di pipeline Esperienza con tool analytics AI-powered o workflow dati assistiti da LLM Esperienza con LookML o Looker Perché Unirsi a Solv? La possibilità di far parte di un team internazionale con impatto concreto sul settore sanitario Collaborazione diretta con il team US e con i principali stakeholder tecnici dell’azienda — con reale visibilità sull’architettura e sulle decisioni che contano Un ruolo con piena ownership: non esegui task, gestisci un dominio end-to-end L’opportunità di lavorare con tool AI-assisted di nuova generazione (Claude Code, agenti dbt) in un contesto in cui l’AI è già parte del lavoro quotidiano Viaggio annuale presso l’HQ a San Francisco, California Opportunità di crescita in un ambiente dinamico e in espansione Apply now EPD Italy Share on: Apply now Terms of service Privacy Cookies Powered by Rippling
Location
Italy
Total raised
$95.0M
Last stage
Growth
Investors
No applications, no recruiter spam. Just the intro.
A few questions to make sure this role is the right shape for you. Two minutes.
I write the intro, send it to the founder, and handle the back-and-forth.
If they’re a yes, I book the chat. You show up — that’s the whole job-hunt.