CI&T

HQ: Hybrid

more jobs in this category:

  • -> Transcriptionist @ Literably
  • -> Remote Freelance Writers for Entry-Level Blogging Work @ We Write Blog Posts
  • -> English Transcript Editor @ 3Play Media
  • -> Data Entry Operator @ Tower Health
  • -> Data Entry specialist @ RMJ4U

Nos especializamos en la transformación tecnológica, combinando la experiencia humana con la inteligencia artificial para ofrecer soluciones tecnológicas escalables. Con más de 8.000 miembros en el equipo de CI&T en todo el mundo, hemos colaborado con más de 1.000 clientes a lo largo de nuestros 30 años de trayectoria. La inteligencia artificial ya forma parte de nuestro trabajo diario.

Inicio inmediato

Como Senior Data Engineer, liderarás el diseño y desarrollo de pipelines de datos confiables, integrando y transformando información proveniente de diversas fuentes como APIs, bases de datos relacionales y sistemas de archivos. Trabajarás en estrecha colaboración con los equipos de negocio y analítica para entregar soluciones de alta calidad que respalden los objetivos estratégicos de la organización. Tu papel será esencial para garantizar la calidad, confiabilidad, seguridad y gobernanza de todos los datos ingeridos, apoyando nuestra misión de Colaboración, Innovación y Transformación.

Responsabilidades principales:
• Desarrollar y mantener pipelines de datos.
• Integrar datos provenientes de múltiples fuentes (APIs, bases de datos relacionales, archivos, etc.).
• Trabajar con los equipos de negocio y analítica para recopilar y comprender los requisitos de datos.
• Asegurar que los datos ingeridos cumplan con los estándares de calidad, confiabilidad, seguridad y gobernanza.
• Aplicar prácticas modernas de DataOps como control de versiones, pruebas de datos y CI/CD.
• Documentar procesos y mejores prácticas de ingeniería de datos.

Habilidades y calificaciones requeridas:
Habilidades indispensables:
• Experiencia comprobada creando y gestionando pipelines de datos a gran escala en Databricks (PySpark, Delta Lake, SQL).
• Sólidos conocimientos de Python y SQL para transformación y procesamiento de datos.
• Fuerte entendimiento de procesos ETL/ELT, data warehousing y procesamiento distribuido de datos.
• Experiencia práctica con metodologías de DataOps, incluyendo control de versiones (Git), CI/CD, pruebas automatizadas e infraestructura como código.
• Conocimiento de plataformas en la nube (AWS, Azure o GCP) y sus servicios de datos.
• Fuertes habilidades analíticas con capacidad para resolver problemas relacionados con desempeño, escalabilidad y confiabilidad.
• Dominio de Git.

La colaboración es nuestra fortaleza, la diversidad nos une y la excelencia guía nuestro trabajo. Valoramos identidades y experiencias de vida diversas, promoviendo un entorno inclusivo, seguro y equitativo. Invitamos a postular a personas de grupos diversos y subrepresentados.

Apply info ->

To find out more about this job, please visit this link

Shopping Cart
There are no products in the cart!
Total
 0.00
0