Sr Data Engineer Snowflake Cloud Bilingüe

  • Training Talent
  • Redwood City, California
  • 04/02/2026
Full time Information Technology Telecommunications SQL Oracle Python

Job Description

Con base en Redwood City, California E.E.U.U. Creamos productos premium especializados en decoración, a través de diversas plataformas ecommerce alrededor del mundo como eBay, Amazon, AliExpress, etc. Hemos crecido año con año de forma estable y con mayor expansión en 2026, por ello, buscamos un Ingeniero Data Engineer Senior Bilingüe con experiencia en Snowflake, Python, DBT y multi nube en esquema remoto.

Sobre tu rol

Serás responsable del diseño y desarrollo de soluciones de almacenamiento de datos robustas y escalables. Serás responsable de crear soluciones de datos basadas en los requisitos del negocio. Estas soluciones pueden implicar la recuperación, transformación, almacenamiento y entrega de datos, siguiendo los estándares y las mejores prácticas.

Oportunidades de trabajo
  • Diseñar, innovar y crear soluciones de datos, con libertad operativa.
  • Apoyo directo, gerencial y operativo para la mejora en los servicios internos y proveedores.
  • Trabajar con tecnologías sofisticadas y líderes para el desarrollo de nuevos productos y soluciones.
Beneficios y compensación
  • Ingreso de 60,000 a 65,000 pesos libres con prestaciones de Ley, 100% nominal, seguro de gastos médicos, seguro de vida, pago de servicios de conectividad y vales de despensa.
  • Horario de lunes a viernes 9:00 p.m. a 6:30 p.m.
  • Zona de trabajo: Remoto
Calificaciones
  • 5 a 7 años de experiencia como Data engineer, Ingeniero de datos, Data Engineer, Data Architect, Data Lead.
  • Inglés Avanzado para sesiones de formación y de trabajo.
  • Gestión avanzada en levantamiento de requerimientos con usuario final, adecuado manejo de relacionamiento con stakeholders en diversas unidades de negocio.
  • 4 a 5 años de experiencia en Python para diseño, modelado (, dimensional, STAR, capas semánticas, etc.), prototipado de datos con manejo de librerías como: Tenserflow, Pytorch.
  • 4 a 5 años en diseño, desarrollo y modelado de Datawarehouse, flujos de datos ETL ELT, Procesamiento SFTP, pipelines de diferentes fuentes (APIs, streaming, BDD), datalakes, Queries, procedimientos con Snowflake Cloud Data Platform. Integración DBT con orquestadores como Airflow, BigQuery, Dagster, Fivetran, Airbyte.
  • 4 a 5 años en conocimiento avanzado de Snowflake: Snowpipe, Streams & Tasks, Time Travel, RBAC, resource monitors.
  • 2 años de experiencia en diseño de modelo de datos con arquitectura Medallion, Data Mesh o Modern Data Warehouse.
  • Conocimiento avanzado de bases de datos SQL (SQL Server, Oracle, Postgres y MySQL) y NoSQL (MongoDB, Cassandra, Couch, Redis, etc).
  • Familiaridad y manejo de DevOps cloud en AWS, Azure o GCP. Apego a innovación con herramientas de IA y ML para datos como: Cortex, DBT AI, Vertex AI, Github Copilot, Amazon Bedrock.
  • Manejo de versionamiento de código con Git, Github y GitFlow.