Login for faster access to the best deals. Click here if you don't have an account.

Ingeniero de Datos Full-time Job

2 months ago   IT & Telecoms   George Town   4 views Reference: WPe98p9ZdLy
Job Details

Resumen del puesto

El Data Engineer es responsable de diseñar, construir y mantener pipelines de datos robustos, escalables y eficientes que soporten las necesidades analíticas y operativas de la organización. Su función principal es garantizar que la información fluya de manera confiable desde múltiples fuentes hacia las plataformas de almacenamiento y análisis, aplicando buenas prácticas de calidad, integración y seguridad.

Este rol requiere habilidades técnicas avanzadas en programación (Python, PySpark), manejo de entornos cloud y herramientas de big data, además de experiencia en bases de datos relacionales y no relacionales. Actúa como puente entre las fuentes de datos, arquitectos y analistas, asegurando que la infraestructura de datos respalde la toma de decisiones y el desarrollo de soluciones de inteligencia artificial y machine learning.

Responsabilidades principales

Diseñar, desarrollar y optimizar pipelines de datos en entornos cloud y on-premise.

Construir procesos de ingesta, transformación y carga (ETL/ELT) que aseguren escalabilidad y eficiencia.

Implementar integraciones entre sistemas internos y externos, garantizando consistencia y trazabilidad de la información.

Administrar y optimizar bases de datos relacionales (SQL) y no relacionales (NoSQL).

Colaborar con arquitectos, analistas de datos y científicos de datos para asegurar que los datasets sean confiables y de calidad.

Aplicar prácticas de control de versiones, pruebas automatizadas y despliegue continuo (CI/CD).

Implementar mecanismos de monitoreo, alertas y auditoría en pipelines de datos críticos.

Documentar procesos, arquitecturas y flujos de datos de acuerdo con lineamientos de la organización.

Contribuir al diseño y evolución de la arquitectura de datos en la nube (Azure, AWS, GCP).

Adoptar metodologías ágiles para la entrega iterativa y eficiente de soluciones de datos.

Requisitos

Educación: Profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Datos o carreras afines.

Formación complementaria:

Programación en Python y PySpark.

Manejo de Databricks y ecosistemas Big Data.

Administración de bases de datos SQL y NoSQL.

Conocimientos en integración de datos y optimización de consultas.

Fundamentos de arquitecturas cloud (Azure Data Factory, AWS Glue, GCP Dataflow).

Experiencia:

Mínimo 3 años en ingeniería de datos o construcción de pipelines.

Experiencia comprobada en diseño y mantenimiento de flujos de integración y procesamiento de datos.

Experiencia sólida en ETL

Trabajo en proyectos con metodologías ágiles y control de versiones (Git).

Company Description
Impulsamos la evolución digital de nuestros clientes con soluciones tecnológicas que optimizan procesos, mejoran la experiencia del usuario y generan resultados reales en sectores clave como banca, seguros, retail, salud, energía, gobierno, y otros más.
Combinamos talento especializado, visión estratégica y metodologías ágiles para construir productos digitales escalables, integraciones eficientes y equipos de alto rendimiento que marcan la diferencia.
En Consultec-TI, conectamos tecnología y personas para llevar a las organizaciones al siguiente nivel.
Contacto: info@consultec-ti.com