Ingeniero de Datos Full-time Job
2 months ago IT & Telecoms George Town 4 views Reference: WPe98p9ZdLyJob Details
Resumen del puesto
El Data Engineer es responsable de diseñar, construir y mantener pipelines de datos robustos, escalables y eficientes que soporten las necesidades analíticas y operativas de la organización. Su función principal es garantizar que la información fluya de manera confiable desde múltiples fuentes hacia las plataformas de almacenamiento y análisis, aplicando buenas prácticas de calidad, integración y seguridad.
Este rol requiere habilidades técnicas avanzadas en programación (Python, PySpark), manejo de entornos cloud y herramientas de big data, además de experiencia en bases de datos relacionales y no relacionales. Actúa como puente entre las fuentes de datos, arquitectos y analistas, asegurando que la infraestructura de datos respalde la toma de decisiones y el desarrollo de soluciones de inteligencia artificial y machine learning.
Responsabilidades principales
Diseñar, desarrollar y optimizar pipelines de datos en entornos cloud y on-premise.
Construir procesos de ingesta, transformación y carga (ETL/ELT) que aseguren escalabilidad y eficiencia.
Implementar integraciones entre sistemas internos y externos, garantizando consistencia y trazabilidad de la información.
Administrar y optimizar bases de datos relacionales (SQL) y no relacionales (NoSQL).
Colaborar con arquitectos, analistas de datos y científicos de datos para asegurar que los datasets sean confiables y de calidad.
Aplicar prácticas de control de versiones, pruebas automatizadas y despliegue continuo (CI/CD).
Implementar mecanismos de monitoreo, alertas y auditoría en pipelines de datos críticos.
Documentar procesos, arquitecturas y flujos de datos de acuerdo con lineamientos de la organización.
Contribuir al diseño y evolución de la arquitectura de datos en la nube (Azure, AWS, GCP).
Adoptar metodologías ágiles para la entrega iterativa y eficiente de soluciones de datos.
Requisitos
Educación: Profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Datos o carreras afines.
Formación complementaria:
Programación en Python y PySpark.
Manejo de Databricks y ecosistemas Big Data.
Administración de bases de datos SQL y NoSQL.
Conocimientos en integración de datos y optimización de consultas.
Fundamentos de arquitecturas cloud (Azure Data Factory, AWS Glue, GCP Dataflow).
Experiencia:
Mínimo 3 años en ingeniería de datos o construcción de pipelines.
Experiencia comprobada en diseño y mantenimiento de flujos de integración y procesamiento de datos.
Experiencia sólida en ETL
Trabajo en proyectos con metodologías ágiles y control de versiones (Git).
Company Description
Combinamos talento especializado, visión estratégica y metodologías ágiles para construir productos digitales escalables, integraciones eficientes y equipos de alto rendimiento que marcan la diferencia.
En Consultec-TI, conectamos tecnología y personas para llevar a las organizaciones al siguiente nivel.
Contacto: info@consultec-ti.com