Job description
En Atrato somos una startup fintech enfocada en brindar herramientas financieras para comercios y consumidores finales con las cuales podamos hacer más accesibles productos y servicios para las personas de Latinoamérica.
Hoy tenemos 2 productos principales:
Atrato Pago es un financiamiento que le permite a nuestros comercios afiliados ofrecer sus productos y servicios en pagos mensuales o quincenales por hasta 24 meses y con montos que llegan hasta los 200,000 MXN.
Atrato Cash es un crédito personal que nuestros clientes pueden acceder una vez que hayan pagado una parte de su primer préstamo. La manera en la que funciona es muy sencilla, al ser un cliente Atrato, con tan solo algunos clicks puedes recibir un préstamo de hasta 200,000 MXN en tu cuenta de banco
Atrato fue fundada en 2019 y desde entonces no hemos parado de crecer de una manera acelerada. Al día de hoy hemos ayudado a miles de clientes a financiar sus compras, las cuales están en distintas verticales como lo son muebles, electrónicos, servicios médicos, entre otras. Este mismo crecimiento nos ha permitido ser reconocidos como una de las 30 promesas de negocios en 2022 de Forbes y también nos ha puesto en la mira de inversionistas internacionales reconocidos como lo son Y Combinator, Accel y Architect Capital.
Sobre la posición:
En Atrato estamos buscando a nuestro próximo Data Engineer Junior para sumarse al equipo de Data.
Colaborarás con un equipo multidisciplinario compuesto por Data Engineers, Data Scientists, Business Analysts y MLOps, trabajando en conjunto para asegurar que los datos fluyan correctamente, sean confiables y estén listos para impulsar decisiones de negocio, análisis y modelos.
Tendrás responsabilidades directas sobre pipelines y estructuras de datos en producción, al mismo tiempo que contarás con el acompañamiento y guía de perfiles con mayor seniority para crecer técnica y profesionalmente.Lo que buscamos
1 a 2 años de experiencia como Data Engineer o en roles similares trabajando con datos en producción.
Excelentes habilidades de comunicación y colaboración.
Capacidad de priorizar, cumplir objetivos y adaptarse a cambios en un entorno dinámico.
Conocimiento y experiencia con herramientas del stack de datos moderno. Esperamos que tengas experiencia con algunas de las siguientes (y estés dispuesto a aprender las otras):
SQL avanzado
Python (scripts de transformación, automatización o APIs)
Docker
AWS (S3, Lambda, Redshift, etc.)
Fivetran o herramientas similares de ingesta de datos
Git y GitHub
Modelado de datos (data marts, esquemas Kimball/Inmon/OBT)
Data Warehouses (Redshift, Snowflake, BigQuery)
Deseable pero no indispensable:
Experiencia escribiendo DAGs en Airflow o manejando pipelines programáticos.
Experiencia colaborando con equipos de BI, Producto o Ciencia de Datos.
Lo que harás típicamente:
Diseñar, desarrollar y mantener pipelines de datos escalables y robustos en ambientes productivos.
Automatizar procesos de ingesta, limpieza y transformación de datos.
Crear y documentar estructuras de datos que sirvan como fuente confiable para equipos de análisis y modelos.
Participar en revisiones de código y decisiones de arquitectura de datos.
Monitorear y mantener la calidad y disponibilidad de los datos.
Aprender y crecer dentro del equipo, proponiendo mejoras y tomando ownership progresivo de los proyectos.
Cumplimiento de Políticas y Normativas: El candidato se compromete a cumplir con todas las políticas y procedimientos de seguridad de la información establecidos por la empresa. Esto incluye, pero no se limita a, la protección de datos confidenciales, el uso adecuado de los recursos tecnológicos y el reporte inmediato de cualquier incidente de seguridad.