Skills relacionados:
$$$ Full time
Senior Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Excel SQL Business Intelligence
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

Job opportunity published on getonbrd.com.

Funciones del cargo

▪ Design and develop analytical solutions to address a spectrum of business challenges, focusing on user acquisition and engagement for state-of-the-art digital offerings.

▪ Collaborate with multidisciplinary teams to structure and analyze business questions through a hypothesis-driven approach.

▪ Perform cohort studies and event impact assessments to analyze outcomes of event interventions using statistical methods.

▪ Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.

▪ Designing data models and schemas that optimize performance and scalability ensuring efficient data retrieval

▪ Partner with consultants /project leads to understand business briefs and execute analyses ensuring high quality, on-time delivery

▪ Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)

▪ Deliver informative and well-organized deliverables.

▪ Develop and enhance statistical model with best-in-class modelling techniques

▪ Evaluate new data sources, conduct research to assist in solving business problems

▪ Multi country / companies’ interactions with team and the Client is daily

▪ Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)

▪ Take part in organizational development activities to take our organization to the next level

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Condiciones

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
$$$ Full time
Business Analyst
  • Decision Point Latam
  • Ciudad de México &nbsp Santiago (Hybrid)
Python Data Analysis Excel SQL
  • Development as a Subject Matter Expert in FMCG sales & marketing analytics domain, working directly with top FMCG brands across Latin America.
  • Work extensively with clients. A direct interaction with clients and with our team in India. These direct interactions will fasten your learning process and will enable you to master traits of strategy consulting, i.e. from understanding business objective to analyzing data in a methodical way culminating with a final output to be delivered to the client.
  • Our senior partners have a wide professional experience and expertise, having played executive roles in leading companies in Chile and various Industrial and FMCG Global companies across continents. Advanced Analytics and Big Data is not only about Data Science, but also Decision Science. You will get the best from both.

This posting is original from the Get on Board platform.

Funciones del cargo

  • Manage large datasets using most recent technologies
  • Partner with project leads to understand business briefs and execute analysis
  • Develop and enhance statistical model with best-in-class modelling techniques
  • Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.
  • Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)
  • Deliver informative and well-organized deliverables.Evaluate new data sources, conduct research to assist in solving business problems
  • Multi country / companies’ interactions with team and the Client is daily
  • Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)
  • Take part in organizational development activities to take our organization to the next leve
  • Proactively seek opportunities to help team members by sharing knowledge and expanding skills

Requerimientos del cargo

▪ Experience on Analytics field / FMCG retail / consulting

▪ Advanced English

▪ Proficiency in data pull and preparation in SQL

▪ Strong experience building storytelling and showing insights in PPT

▪ Strong experience in PowerBI

▪ Excellent analytical skills and should be a problem solver

▪ Strong interpersonal and communication skills for cross-functional teams

▪ An eye for detail, quick learner and think out of the box

▪ Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

▪ Strong experience in Excel

▪ Experience in exploratory Data Analysis for Modelling and Business Analysis using Python

Beneficios

  • Hibrido. 4x1 en Chile y 3x2 en México
  • 2 DP Days libres por quarter
  • Seguro de salud complementario en Chile
  • almuerzo en oficina
  • 5 días extra de vacaciones

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point Latam pays or copays health insurance for employees.
Computer provided Decision Point Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point Latam gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point Latam offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer – Proyecto (Híbrida)
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL SQL ETL
En BC Tecnología diseñamos y ejecutamos soluciones de TI para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de Data & Analytics se centra en impulsar la continuidad operativa de flujos de datos corporativos mediante pipelines robustos, integraciones escalables y monitoreo proactivo. Participarás en un proyecto con enfoque en datos de alto volumen, trabajando con tecnologías modernas y un entorno ágil para entrega continua y mejoras de producto.

Official job site: Get on Board.

Funciones

  • Diseñar y mantener pipelines ETL/ELT para datos críticos de la organización.
  • Orquestar y monitorear flujos de datos con Apache Airflow en entornos productivos.
  • Optimizar consultas SQL en PostgreSQL y/o Amazon Redshift para rendimiento y costos.
  • Gestionar repositorios y pipelines CI/CD en Azure DevOps.
  • Resolver incidencias y asegurar la calidad, disponibilidad y trazabilidad de los datos.
  • Colaborar con equipos de ciencia de datos, ingeniería y negocio para entender requerimientos y entregar soluciones escalables.
  • Participar en la definición de estándares de gobierno de datos y mejores prácticas de ingeniería de datos.

Descripción

  • Buscamos Ingeniero/a de Datos con experiencia en desarrollo de pipelines y entornos productivos para asegurar fluidez y confiabilidad de los datos corporativos.
  • Requisitos técnicos: Python y SQL avanzados; experiencia con PostgreSQL y/o Amazon Redshift; Apache Airflow; Azure DevOps; manejo de grandes volúmenes de datos.
  • Competencias: pensamiento analítico, proactividad, orientación a resultados, capacidad de trabajo en equipo y comunicación efectiva con stakeholders.
  • Se valoran proyectos previos en entornos financieros y experiencia con herramientas de monitoreo y observabilidad de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $3500 - 3700 Full time
Python SQL Microstrategy ETL

Coderslab.io is looking to hire a Big Data & Reporting Lead to lead the organization’s data architecture and analytics strategy.

This role will be responsible for designing, governing, and optimizing the enterprise data architecture, ensuring proper structuring, integration, automation, and consumption of data for reporting, advanced analytics, and decision-making.

The position has a strong focus on data architecture, analytical modeling for MicroStrategy, process automation using n8n, and optimization of ETL/ELT data pipelines.

About the client and the project: the company delivers innovative technology solutions and provides opportunities for continuous learning under the guidance of experienced professionals and cutting-edge technologies. The goal is to deliver value in key business processes and improve operational efficiency through SAP.

Originally published on getonbrd.com.

Funciones del cargo

Data Architecture
Design and govern the data architecture for Big Data and BI platforms.
Define analytical data models for reporting and analytics.
Design data lakes, data warehouses, and data marts aligned with business needs.
Establish data governance, quality, and lineage standards.
Ensure platform scalability, availability, and reliability.

Modeling and Reporting in MicroStrategy
Design and optimize the semantic layer and metadata in MicroStrategy.
Define analytical models and Star Schema structures.
Lead the development of dossiers, operational reports, and analytical cubes.
Optimize queries, performance, and execution times.
Define caching, aggregation, and pre-calculation strategies.

Automation of Analytical Processes (n8n)
Design data and reporting automation workflows using n8n.
Integrate sources such as APIs, databases, cloud services, and BI tools.
Automate data extraction, report generation, dashboard distribution, and alerts.
Design orchestration pipelines for analytical processes.

Data Processing Optimization
Design and optimize scalable ETL/ELT processes.
Optimize queries, data pipelines, and incremental loads.
Reduce latency and resource consumption in reporting.
Implement efficient data ingestion strategies.

Technical Leadership and Management
Lead Data Engineering, BI, and Analytics teams.
Track data architecture and reporting projects.
Define the data platform evolution roadmap.
Establish KPIs for reporting performance, data quality, and analytics adoption.
Align business needs with the data architecture.

Requerimientos del cargo

Experience leading data architecture or analytics platforms.
Experience in analytical data modeling (Star Schema, Data Modeling).
Experience working with Big Data or Data Warehousing platforms.
Experience with MicroStrategy for modeling and reporting.
Experience designing ETL / ELT processes and data pipelines.
Advanced SQL knowledge.
Experience with Python for data processing or automation.
Experience designing scalable data architectures.

Technologies
Big Data & Data Platforms
Spark
Hadoop
Databricks
Snowflake / BigQuery / Redshift
Kafka
Business Intelligence
MicroStrategy
Power BI (nice to have)
Tableau (nice to have)
Automation & Orchestration
n8n
Airflow
REST APIs
Webhooks
Databases
SQL Server
PostgreSQL
Oracle
NoSQL
Data Engineering
Python
Advanced SQL
ETL / ELT pipelines

Opcionales

Experience with workflow automation using n8n.
Experience with orchestration tools such as Airflow.
Experience with Power BI or Tableau.
Knowledge of event-driven or streaming architectures (Kafka).
Experience in data governance, data quality, and data cataloging.

Condiciones

Modalidad prestacion de servicios

Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL ETL

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Find this job and more on Get on Board.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

Gross salary $2500 - 3200 Full time
Data Governance Consultant
  • Artefact LatAm
  • Santiago (Hybrid)
SQL NoSQL Cloud Computing Data governance

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Data Governance Consultant es un profesional altamente especializado que colabora estrechamente con los clientes para desarrollar e implementar proyectos estratégicos de Data Governance u otros. Este rol se enfoca en actuar como un arquitecto de la confianza dentro de los ecosistemas de información, adaptando tecnología y la aplicación de las últimas tendencias, con un profundo entendimiento de los negocios. Como consultor, trabajará en estrecha colaboración con equipos multidisciplinarios para ofrecer soluciones que generen un impacto significativo y añadan valor a los clientes.

Applications: getonbrd.com.

Funciones del cargo

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Desarrollar y mantener el roadmap de Data Governance, definiendo la propiedad de los datos (data ownership), los roles de custodia (stewardship) y los modelos operativos.
  • Establecer dimensiones de calidad (exactitud, completitud, consistencia) e implementar sistemas de monitoreo y alertas automatizadas.
  • Definir y hacer cumplir las políticas de retención de datos, privacidad (GDPR, LGPD o normativas locales) y seguridad, trabajando de la mano con los equipos especializados en la materia.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.

Requerimientos del cargo

  • Titulación en Ingeniería Civil Industrial, Ingeniería en sistemas, Ciencias de la Computación, Ingeniería Industrial o áreas afines.
  • Experiencia laboral mínima de 3 años en consultoría, roles de gestión de proyectos o gobierno de datos.
  • Experiencia de al menos 1 año en materias de Data Governance.
  • Dominio avanzado de herramientas de Microsoft Office (Excel, PowerPoint, Word).
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de las regulaciones de privacidad de datos y cómo traducirlas en requisitos técnicos.
  • Conocimiento profundo de diversas herramientas y soluciones digitales. Además de una comprensión sólida de SQL, NoSQL y entornos de nube (AWS, Azure o GCP).

Sumas puntos extras si...

  • Se valoran certificaciones asociadas al cargo
  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Data Engineer (Pyspark, AWS)
  • Improving South America
Python SQL ETL Kafka
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil. El/la BI Developer trabajará en proyectos orientados a inteligencia de negocio, visualización de datos y creación de dashboards impactantes que faciliten la toma de decisiones. Colaborará con equipos multifuncionales para entregar soluciones escalables y de alto valor para clientes internacionales, dentro de un entorno 100% remoto.
La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

This job offer is available on Get on Board.

Responsabilidades del puesto

En Improving South America buscamo un/a Senior Data Engineer para diseñar y operar soluciones de datos de alta disponibilidad a escala global, trabajando con pipelines batch y streaming que procesan grandes volúmenes de información. El rol requiere experiencia construyendo pipelines robustos, trabajando con Kafka, PySpark y data warehouses en AWS, además de fuerte dominio de SQL y modelado de datos.

Responsabilidades del rol:

  • Diseñar y operar pipelines de datos batch y streaming.
  • Procesar grandes volúmenes de datos (billones de eventos diarios y datasets multi-terabyte).
  • Construir integraciones entre MySQL y Redshift.
  • Diseñar modelos de datos y optimizar consultas SQL.
  • Implementar estrategias de CDC, cargas incrementales y full loads.
  • Integrar datos mediante APIs internas y de terceros.
  • Diagnosticar fallas en pipelines, problemas de latencia y calidad de datos.
  • Colaborar en decisiones de arquitectura de datos.

Requerimientos del cargo

  • 7+ años de experiencia en Data Engineering.
  • Inglés intermedio/avanzado (B2/C1) para comunicación técnica.
  • Experiencia sólida con Python.
  • Experiencia con PySpark.
  • Experiencia trabajando con Kafka.
  • Experiencia con Redshift u otro data warehouse moderno.
  • Experiencia integrando MySQL → Redshift.
  • Dominio avanzado de SQL (modelado, optimización y queries complejas).
  • Experiencia en AWS y servicios de datos en la nube.
  • Experiencia diseñando pipelines ETL/ELT batch y streaming.
  • Experiencia con Glue, Step Functions o arquitecturas serverless en AWS.
  • Experiencia trabajando con herramientas de desarrollo asistidas por IA (ej. Cursor).
  • Experiencia en entornos de alto volumen de datos.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Data Operational Engineer
  • TIMINING
  • Santiago (Hybrid)
Python Git SQL ETL

En TIMining, trabajamos para convertir la información operativa de las faenas mineras en valor accionable a través de nuestras plataformas de control y monitoreo. Este rol se integra al equipo de datos, aportando en el diseño, desarrollo y operación de pipelines ETL que integran fuentes diversas hacia las bases de datos y productos de TIMining. Serás parte de un proyecto orientado a la continuidad operativa, la calibración de algoritmos y la automatización de procesos internos para optimizar el flujo de trabajo del cliente y del equipo.

Apply exclusively at getonbrd.com.

Funciones

  • Desarrollar, mantener y documentar scripts en Python y SQL (conectores) para ETL hacia las bases de datos de los productos de TIMining.
  • Diseñar, implementar y mantener flujos de CI/CD para que los cambios en las pipelines lleguen a producción de forma segura y automatizada.
  • Monitorear la salud y rendimiento de procesos de datos (logging y alerting), garantizando uptime y respuestas ante incidentes operativos.
  • Administrar y orquestar pipelines con herramientas de planificación (Airflow, Dagster) y contenedores (Docker).
  • Validar resultados de pipelines (cualitativa y cuantitativamente) comparando con reportes operacionales de faenas.
  • Identificar, evaluar y mitigar riesgos en el desarrollo de pipelines, contemplando calidad de datos y planes de contingencia.
  • Desarrollar proyectos internos para automatizar labores rutinarias y simplificar el trabajo del equipo.
  • Asistir y presentar en reuniones técnicas con clientes para gestionar accesos a fuentes de información y resolver consultas.
  • Analizar y documentar fuentes de información del cliente por sistema (FMS, MGS u otras) y calibrar algoritmos de los softwares de la empresa.
  • Ejecutar turnos 24/7 para asegurar continuidad operativa.

Requisitos y experiencia

Formación en Ingeniería en Ciencia de Datos, Ingeniería Civil o carreras afines en computación. Se requieren mínimo 2 años de experiencia en cargos similares y experiencia comprobable en la implementación de pipelines ETL. Se valora conocimiento y manejo avanzado de Python y SQL, experiencia práctica en despliegue de aplicaciones y manejo de contenedores, así como experiencia en orquestación de datos con herramientas como Apache Airflow o Prefect. Dominio de control de versiones (Git) y trabajo colaborativo, consultas a APIs y bases de datos avanzadas. Conocimientos de Google Suite y Office. Habilidades analíticas, proactividad y capacidad para trabajar de forma autónoma y en equipo. Idiomas: Español nativo; Inglés deseable (upper-intermediate).

Se buscan candidatos con experiencia en proyectos tecnológicos y conocimiento de la industria minera a cielo abierto, además de experiencia con arquitecturas Cloud (AWS, Azure o GCP) e Infraestructura como Código (Terraform, CloudFormation).

Requisitos deseables

Experiencia en:
- Implementación de proyectos tecnológicos.
- Conocimiento de la industria minera y su operación.
- Familiaridad con metodologías ágiles, y experiencia con herramientas de Infraestructura como Código.
- Deseable conocimiento en soluciones de monitoreo y en entornos de producción de datos a gran escala.

Beneficios

Ofrecemos un entorno enfocado a innovación en la industria minera, con oportunidades de desarrollo profesional y trabajo en equipo multidisciplinario. Si cumples con el perfil, te invitamos a formar parte de TIMining y contribuir a la transformación digital de operaciones mineras.

Gross salary $3000 - 4000 Full time
Senior Data Engineer
  • Artefact LatAm
Python Big Data Data lake Data Architecture

En Artefact LatAm, somos una consultora líder enfocada en acelerar la adopción de datos e inteligencia artificial para generar impacto positivo. El Senior Data Engineer tendrá la responsabilidad de liderar el desarrollo de proyectos de Big Data con clientes, diseñando y ejecutando arquitecturas de datos que sirvan como puente entre la estrategia empresarial y la tecnología, bajo los principios de gobernanza de datos establecidos por los clientes. Además, será responsable de diseñar, mantener e implementar estructuras de almacenamiento de datos tanto transaccionales como analíticas. Este rol implica trabajar con grandes volúmenes de datos provenientes de diversas fuentes, procesarlos en entornos de Big Data y traducir los resultados en diseños técnicos sólidos y datos consistentes. También se espera que revise la integración consolidada de datos y describa cómo la interoperabilidad capacita a múltiples sistemas para comunicarse entre sí.

This company only accepts applications on Get on Board.

Tus responsabilidades serán:

  • Diseñar arquitecturas de datos que cumplan con los requisitos de los clientes y se alineen con su estrategia empresarial, asegurando la adherencia a los principios de gobernanza de datos.
  • Diseñar, implementar, mantener y actualizar estructuras de almacenamiento de datos transaccionales y analíticas, garantizando la integridad y disponibilidad de los datos.
  • Extraer datos de diversas fuentes y transferirlos eficientemente a entornos de almacenamiento de datos.
  • Diseñar e implementar procesos que soporten grandes volúmenes de datos en entornos de Big Data, utilizando herramientas y tecnologías pertinentes en cada proyecto.
  • Comunicar hallazgos, resultados y diagnósticos efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Colaborar con equipos multidisciplinarios en la gestión estratégica de proyectos, asegurando la entrega oportuna y exitosa de soluciones de datos.
  • Desarrollar y mantener soluciones en la nube y on premise.
  • Utilizar metodologías ágiles para el desarrollo y entrega de soluciones de datos, adaptándose rápidamente a los cambios y requisitos del proyecto.
  • Apoyar al equipo traspasando conocimientos y buenas prácticas, apoyando en la capacitación y aprendizaje continuo según las necesidades individuales de los miembros
  • Gestionar al equipo mediante una planificación estratégica del proyecto, asegurando una distribución eficiente de tareas y una comunicación clara de los objetivos.

Los requisitos del cargo son:

  • Experiencia mínima de 3 años en el uso de herramientas de gestión de datos.
  • Experiencia previa en la gestión estratégica de equipos multidisciplinarios.
  • Conocimientos avanzados de Python o Pyspark y experiencia en su aplicación en proyectos de datos.
  • Experiencia en el diseño e implementación data warehouse, data lakes y data lake house
  • Desarrollo de soluciones de disponibilización de datos.
  • Experiencia práctica con al menos uno de los principales almacenes de archivos en la nube.
  • Buen manejo del inglés.

Algunos deseables no excluyentes:

  • Experiencia en consultoría y/ proyectos de estrategia o transformación digital
  • Experiencia con servicios de procesamiento y almacenamiento de datos de AWS o GCP, Azure
  • Certificaciones

Algunos de nuestros beneficios:

  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros (Chile).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Education stipend Artefact LatAm covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Artefact LatAm offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
Gross salary $2000 - 2200 Full time
Business Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Postman Jira
BC Tecnología es una consultora de TI con personal experto en diferentes áreas tecnológicas, dedicada a servicios IT, administración de portafolio, desarrollo de proyectos, outsourcing y selección de profesionales. Nos especializamos en crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Buscamos aportar en proyectos innovadores con altos estándares de calidad y enfoque en cambios organizacionales y desarrollo de productos. Esta posición se desempeña dentro de un entorno de proyectos por contrato y enfocado a resultados de negocio de clientes de alto nivel.

Job opportunity published on getonbrd.com.

Funciones

Como Business Analyst, tendrás foco en producto, orientado a la calidad funcional y a la mejora continua de aplicaciones digitales. Serás responsable de asegurar la calidad funcional de aplicaciones web y móviles, analizar, documentar y optimizar flujos de usuario, gestionar bugs end-to-end y apoyar la priorización de iniciativas con foco en el impacto de negocio. Participarás en ceremonias ágiles, colaborarás con equipos multifuncionales y asegurarás trazabilidad de requerimientos y métricas de aceptación. Deberás trabajar de forma colaborativa con PMs, TA/QA y desarrollo para alinear entregables con las expectativas de negocio y usuarios finales, manteniendo una comunicación clara con stakeholders y respaldando las decisiones con datos.

Requisitos

Al menos 3 años de experiencia como Business Analyst. Experiencia en análisis de negocio y mejora de procesos. Conocimiento en QA funcional (no excluyente). Manejo de SQL (intermedio). Deseable Python. Experiencia con Jira, Postman y Excel avanzado. Capacidad para documentar procesos, mapear flujos y definir criterios de aceptación claros. Habilidad para trabajar en entornos ágiles y facilitar reuniones de priorización. Orientación a resultados, pensamiento analítico, comunicación efectiva y habilidades para trabajar con clientes y equipos multidisciplinarios. Se valorará experiencia en entornos financieros y conocimiento de herramientas de automatización de pruebas.

Deseables

Deseables: experiencia previa en análisis de productos digitales, conocimientos de metodologías de diseño centrado en el usuario, experiencia en automatización de pruebas y familiaridad con herramientas de pruebas de rendimiento. Capacidad de trabajar de forma proactiva, con iniciativa, y habilidades para gestionar múltiples iniciativas simultáneamente. Bilingüe español-inglés es un plus, al trabajar con clientes y equipos internacionales.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Python SQL Spark Infrastructure as Code

Con más de 10 años de experiencia impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y Latinoamérica, Devsu ha desarrollado soluciones de alto impacto en sectores como el entretenimiento, la banca, la salud, el comercio minorista, la educación y los seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de un aprendizaje continuo y de participar en proyectos desafiantes y de gran impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en una variedad de productos y soluciones de software.

Estamos en búsqueda de un Arquitecto de Datos con experiencia comprobada en la plataforma Stratio y en arquitecturas de datos basadas en Amazon Web Services (AWS).

Applications: getonbrd.com.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en tiempo real (NRT) y por lotes usando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para asegurar integración y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • +5 años de experiencia en arquitectura de datos.
  • Experiencia práctica con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Sólidos conocimientos en servicios de AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Dominio en arquitecturas basadas en eventos, procesamiento en tiempo real (real-time), Data Lakes y Lake Houses.
  • Experiencia con herramientas de infraestructura como código: Terraform o CloudFormation.
  • Conocimiento en lenguajes y frameworks como: Python, SQL, Spark / PySpark.

Requisitos deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telecomunicaciones (telcos).
  • Conocimiento en herramientas de visualización como Power BI, Looker o Tableau.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
$$$ Full time
Java Python Node.js ETL
En <Devaid> nos apasionan los desafíos tecnológicos y nuestros clientes lo saben. Por lo anterior, nos plantean problemáticas que nos obligan a estar constantemente probando e implementando nuevas tecnologías.
Trabajamos fuertemente en la nube ya que somos Partner Premier de Google Cloud en Chile, por lo que tendrás la oportunidad de formarte como un profesional cloud.
Dependiendo de las necesidades del cliente, <Devaid> ofrece soluciones web, móviles, integración de sistemas, entre otros. Esto permite acceder a la herramienta sin importar el dispositivo ni el lugar dónde se encuentra. Permitimos el trabajo colaborativo entre múltiples usuarios manteniendo una base centralizada de información.

Apply directly at getonbrd.com.

Funciones del cargo

Esperamos que puedas desempeñarte en las siguientes actividades:
  • Creación de pipelines de carga y transformación de datos.
  • Modelamiento de datos y creación de Data Warehouse y Data Lakes.
  • Integración de sistemas.
  • Creación de modelos de machine learning con herramientas low code autoML.
Vas a participar como ingeniero de datos en equipos de consultores que prestan servicios a empresas importantes en Chile. En estos equipos participan distintos perfiles, tales como desarrolladores de software, arquitectos de datos y data scientists. Los servicios se prestan de forma remota y son prestados por proyecto (no es outsourcing de recursos), por lo que puedes trabajar desde tu casa sin problemas. Diariamente vas a tener reuniones con tu equipo para coordinar actividades y resolver temas complejos que vayan surgiendo.

Requerimientos del cargo

Los requisitos para un buen desempeño de las funciones son:
  • 1 año de experiencia como Data Engineer.
  • Programación en lenguaje Python, NodeJS o Java (al menos uno de los 3).
  • Conocimiento de soluciones de Data Warehouse y ETL.
  • Conocimiento de plataformas de procesamiento de datos como Apache Spark, Dataflow o similares.
  • Haber trabajado previamente con alguna nube pública (AWS, Azure o GCP).
Si no cumples alguno de estos puntos no te desanimes, queremos conocerte igualmente.
El trabajo es 100% remoto, pero es necesario que tengas RUT y/o papeles al día en Chile.

Deseables

Suman puntos en tu postulación si cumples alguna de las siguientes habilidades, ninguno de estos son excluyentes:
  • Conocimiento de herramientas Google Cloud, entre ellas Google BigQuery, Dataflow, Data Fusion y Pub Sub.
  • Experiencia en plataformas de deployment de infraestructura como Terraform.
  • Experiencia utilizando la herramienta de consola gcloud.

Beneficios

Prometemos un ambiente muy grato de trabajo, lleno de desafíos y donde podrás ver los proyectos en los que estas involucrada/o siendo utilizados en un corto tiempo activamente por nuestros clientes, lo que siempre es muy gratificante.
Otras actividades:
  • Actividades mensuales (Cupones de Food delivery, juegos en línea, actividades grupales).
  • Actividad paseo anual: La empresa se junta por 2 días en algún lugar turístico para realizar actividades grupales y unir al equipo.
  • Día libre flexible en tu cumpleaños.
  • Capacitaciones en lo que más te guste.
  • Certificaciones Google Cloud: Programa de certificación en distintas ramas profesionales de GCP, gracias a que somos Partner Premier de Google Cloud en Chile.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Devaid pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Education stipend Devaid covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $1500 - 2500 Full time
Data Consultant
  • Artefact LatAm
  • Bogotá &nbsp Santiago &nbsp Ciudad de México (Hybrid)
Python Data Analysis Excel Power BI
Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.
Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

This job offer is on Get on Board.

Funciones del cargo

  • Realizar investigación y búsqueda de información relevante para el proyecto; estructurando y ejecutando los análisis de información
  • Desarrollar diagnósticos y proponer soluciones según las necesidades específicas de cada cliente, basadas en un proceso analítico y con una fuerte orientación estratégica
  • Desarrollar entregables accionables, gestionables, innovadores, y con sentido de negocios para el cliente, pensados directamente en la transformación digital
  • Aprender rápidamente de diversos negocios e industrias, así como las herramientas y metodologías requeridas para llevar a cabo el trabajo con cada cliente
  • Presentar el desarrollo y resultados de manera efectiva, para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente, adaptándose a diversos stakeholders
  • Apoyar en la creación de propuestas de proyectos para potenciales clientes, mediante un estudio detallado de la industria y las posibles soluciones que más se ajusten a sus problemas
  • Construir una relación de trabajo con el cliente
  • Apoyar al equipo en la planificación estratégica, y traspasando conocimiento y buenas prácticas

Requerimientos del cargo

  • Formación de Ing. Civil Industrial, Ing. Comercial, Ing. Industrial, Economista o carreras relacionadas
  • Experiencia laboral de 1 a 2 años en consultoría o roles relacionados
  • Dominio avanzado de herramientas de Microsoft Office (Excel, PowerPoint, Word).
  • Conocimiento y manejo de diversas herramientas y soluciones digitales.
  • Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.

Algunos deseables no excluyentes

  • Manejo de Python y herramientas de visualización como PowerBI, Tableau
  • Conocimientos de Data Science.
  • Proficiente en ingles profesional

Algunos de nuestros beneficios para esta posición son:

Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)
...y más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
$$$ Full time
Sr Data Engineer – CRM Customer Service
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL ETL Spark
BC Tecnología es una consultora de TI con experiencia en servicios IT, outsourcing y selección de profesionales. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, con clientes en servicios financieros, seguros, retail y gobierno. Buscamos incorporar a nuestro equipo a un/a SR Data Engineer con fuerte enfoque en CRM y migración de datos para proyectos de CRM Customer Service, entre otros clientes de alto nivel. El rol forma parte de iniciativas de modernización de datos, migración a la nube y fortalecimiento de la gobernanza de datos para un programa orientado a soluciones de experiencia del cliente.

Apply to this job without intermediaries on Get on Board.

Funciones principales

  • Diseñar y desarrollar pipelines ETL/ELT para integración y migración de datos.
  • Ejecutar migración de datos desde sistemas legados hacia plataformas cloud y Dynamics 365.
  • Asegurar integridad, calidad y disponibilidad de los datos mediante validaciones y reconciliaciones.
  • Colaborar con el Technical Lead en la arquitectura de datos del programa.
  • Documentar modelos de datos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles y reportar avances del frente de datos.
  • Colaborar con QA en validación end-to-end de datos.
  • Transferir conocimientos de datos al equipo.

Descripción

Requerimos un/a profesional con al menos 4 años de experiencia en ingeniería de datos, con prioridad en entornos CRM y retail. El/la candidato/a será responsable de diseñar e implementar pipelines para extracción, transformación y carga de datos, así como gestionar migraciones complejas desde sistemas legados hacia entornos en la nube y Microsoft Dynamics 365 Dataverse. Se integrará a un equipo técnico colaborativo, participando en la definición de la arquitectura de datos, la aseguración de calidad y la entrega continua mediante prácticas CI/CD aplicadas a datos. Se valorará experiencia en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions), Airflow o Step Functions para orquestación, Python y Spark/PySpark, manejo de SQL avanzado, modelado dimensional y relacional, y conocimiento de Dynamics 365.
Buscamos proactividad, orientación a resultados y habilidades de comunicación para trabajar en un entorno ágil y multi-funcional, con foco en la entrega de valor al negocio y una cultura de mejora continua.

Requisitos deseables

Experiencia en migración de datos entre sistemas ERP/CRM a plataformas en la nube; familiaridad con governance de datos, reconciliaciones y validación de datos de extremo a extremo; experiencia con teams y stakeholders de negocio; certificaciones en AWS o Data & Cloud; capacidad de documentación clara y ordenada; conocimientos de Microsoft Dynamics 365 Dataverse. Se valorará experiencia en retail y servicios de CRM, y habilidad para trabajar en entornos regulados.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL ETL Spark
En BC Tecnología diseñamos equipos de trabajo ágiles para servicios IT, con foco en Infraestructura, Desarrollo de Software y Unidades de Negocio para clientes en Finanzas, Seguros, Retail y Gobierno. Nuestro objetivo es entregar soluciones de alto impacto mediante consultoría, desarrollo de proyectos, outsourcing y selección de personal.
Como parte de nuestro programa CRM Customer Services migramos y consolidamos datos a plataformas cloud (AWS) y Dynamics 365 Dataverse, garantizando integridad, calidad y disponibilidad de la información para operaciones y analítica. Participarás en iniciativas innovadoras con clientes de alto nivel, con enfoque en aprendizaje continuo y desarrollo técnico dentro de un entorno colaborativo y orientado al cliente. La modalidad híbrida permite combinar trabajo remoto con presencia en nuestras oficinas para fomentar colaboración y dinamismo.

This job is exclusive to getonbrd.com.

Funciones

  • Diseñar, desarrollar y ejecutar procesos de ingeniería de datos y migración requeridos por el programa CRM Customer Services, asegurando la integridad, calidad y disponibilidad de los datos en plataformas cloud.
  • Conocimientos técnicos: ingeniería de datos en AWS (S3, Glue, Athena, Redshift, Lambda, Step Functions); ETL/ELT para diseño y desarrollo de pipelines de datos; migración de datos entre sistemas legados y plataformas cloud; SQL avanzado y modelado de datos (dimensional, relacional).
  • Desarrollar pipelines en Python y Spark/PySpark, aplicar calidad de datos (validación, limpieza, reconciliación, profiling) y utilizar herramientas de orquestación (Airflow, Step Functions); control de versiones y CI/CD aplicado a datos.
  • Conocer Microsoft Dynamics 365 Dataverse y su modelo de datos; diseñar y ejecutar migraciones desde sistemas legados hacia plataformas cloud y Dynamics 365; documentar modelos, pipelines y procesos de migración.
  • Participar en ceremonias ágiles, reportar avances y colaborar con QA para validación end-to-end; transferir conocimiento de datos al equipo y colaborar estrechamente con el Technical Lead en la arquitectura de datos del programa.

Requisitos y perfil

Buscamos un profesional con experiencia sólida en ingeniería de datos en entornos cloud, especialmente AWS, y en proyectos de migración de datos hacia soluciones modernas de nube y CRM. Debes dominar pipelines ETL/ELT, modelado de datos relacional y dimensional, y tener capacidad para trabajar en entornos dinámicos y colaborativos. Se valorará experiencia con Oracle/Siebel, Great Expectations o Deequ para calidad de datos, y conocimiento del sector Retail. Debes ser proactivo, orientado a resultados, con habilidades de comunicación para trabajar con equipos multidisciplinarios y stakeholders.
Requisitos mínimos: experiencia en AWS Data Analytics/Data Engineering; diseño y migración de datos entre sistemas; SQL avanzado; Python o Spark; experiencia con herramientas de orquestación; familiaridad con Dynamics 365 Dataverse; experiencia en entornos ágiles y capacidad para documentar procesos y modelos de datos. Deseable certificación AWS Data Analytics, experiencia en migración desde Oracle/Siebel y conocimiento de herramientas de calidad de datos. Se valora experiencia en Retail y en entornos de CRM.

Conocimientos Deseables

Certificación AWS Data Analytics o Data Engineering. Experiencia migrando datos desde Oracle/Siebel. Conocimiento en herramientas de calidad de datos como Great Expectations o Deequ. Experiencia en el sector Retail. Conocimiento adicional en DevOps de datos y metodologías ágiles. Habilidad para trabajar en equipos multiculturales y capacidad de explicar conceptos técnicos a audiencias no técnicas. Se valora experiencia en arquitectura de datos para CRM y en gestión de proyectos de migración complejos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Data Engineer – SQL Migration
  • WiTi
  • Santiago (Hybrid)
SQL ETL Automation AWS

En WiTi lideramos un proyecto estratégico de migración de un ecosistema analítico legado hacia una arquitectura moderna en la nube sobre AWS. El objetivo es estandarizar, optimizar el rendimiento y escalar la operación, trasladando lógica SQL no estándar a SQL estándar para Amazon Redshift. Este esfuerzo involucra automatización para acelerar la migración, reducción de errores y una alta interacción con equipos de data, BI y TI para asegurar trazabilidad, reproducibilidad y gobernanza de datos a nivel enterprise.

Serás parte de un equipo multidisciplinario que diseña y ejecuta la migración de punta a punta, estableciendo reglas de conversión, pipelines, controles de calidad y guías de codificación reutilizables. El proyecto ofrece visibilidad transversal sobre ETL/ELT y buenas prácticas de gobierno de datos en un entorno cloud escalable.

Apply only from getonbrd.com.

Responsabilidades Clave

  • Analizar programas y scripts existentes con lógica SQL no estándar, incluyendo estructuras de procesamiento propias de entornos legacy (jobs, macros, librerías).
  • Convertir y reescribir lógica SQL legada a SQL estándar compatible con Amazon Redshift, cuidando equivalencia funcional y performance.
  • Definir un enfoque repetible para migrar grandes volúmenes de programas: reglas, patrones de conversión y estándares de codificación.
  • Automatizar el proceso de transformación mediante scripts, reglas de conversión, validaciones automáticas, templates o pipelines.
  • Trabajar con procesos ETL/ELT en AWS, integrándose con el stack del cliente (fuentes, cargas, transformaciones, orquestación, monitoreo).
  • Validar equivalencia funcional entre el sistema origen y Redshift mediante reconciliaciones de datos, controles de calidad y monitoreo.
  • Documentar reglas de conversión, decisiones técnicas y casos borde para un proceso mantenible y auditable.
  • Colaborar con data y TI para asegurar trazabilidad, reproducibilidad y rendimiento del data warehouse en la nube.

Requisitos Excluyentes

  • SQL avanzado: queries complejas, optimización de performance, joins pesados, window functions/CTEs, lectura e interpretación de planes de ejecución.
  • Experiencia práctica con Amazon Redshift: diseño y escritura de SQL, buenas prácticas de rendimiento y modelado en Redshift.
  • Conocimiento de ETL/ELT en AWS (p. ej., Glue, Lambda, Step Functions) y otras herramientas de orquestación.
  • Experiencia en contextos enterprise centrada en calidad, trazabilidad, documentación y resultados reproducibles.
  • Experiencia en migraciones desde tecnologías legacy hacia cloud data warehouses (Redshift, Snowflake, BigQuery) y automatización de migraciones.

Requisitos Deseables

  • Se valorará experiencia previa migrando desde tecnologías legacy hacia cloud data warehouses y participación en automatización de migraciones.
  • Conocimientos de Python u otros lenguajes de scripting para apoyar automatización y tooling interno, así como experiencia en gobernanza de datos (naming conventions, documentación, data quality checks y monitoreo).

Beneficios

En WiTi fomentamos una cultura de aprendizaje y colaboración, con foco en proyectos digitales y de datos de alto impacto. Entre los beneficios se incluyen:

  • Plan de carrera personalizado orientado a desarrollo en data, cloud y analítica.
  • Certificaciones para continuar creciendo en tu carrera (AWS, data, analítica).
  • Cursos de idiomas para desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Databricks Administrator
  • Improving South America
Python SQL Automation Terraform
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.

Contribuirás a la construcción y mantenimiento de soluciones de datos que soportan analítica, reporting y la toma de decisiones operativas en toda la organización.

Trabajando de cerca con data engineers y otros perfiles tecnológicos, apoyarás las plataformas que permiten a los equipos transformar datos en insights relevantes.

En este rol, te enfocarás en la gestión de plataformas de datos y en su rendimiento general. Colaborarás con equipos multifuncionales para entender requerimientos de datos, mejorar sistemas existentes y entregar soluciones que respondan a necesidades del negocio.

Esta es una excelente oportunidad para seguir desarrollando tus habilidades en data engineering mientras contribuyes a impulsar decisiones basadas en datos a escala

Apply at the original job on getonbrd.com.

Job functions

  • Monitorear y mantener la salud, disponibilidad y rendimiento de instancias de Snowflake y Databricks, utilizando herramientas nativas y estándares internos
  • Revisar periódicamente métricas de uso, logs del sistema y consumo de recursos para detectar y abordar anomalías
  • Asegurar la ejecución de actualizaciones, parches y respaldos conforme a políticas y estándares definidos
  • Investigar incidentes y degradaciones del servicio, gestionando su resolución o escalamiento para minimizar el impacto en el negocio
  • Administrar el ciclo completo de accesos: provisión, desprovisión y asignación de roles en Snowflake y Databricks, garantizando cumplimiento de estándares de seguridad
  • Implementar y auditar controles de acceso a datos, trabajando junto a equipos de seguridad (InfoSec) y líderes de plataforma
  • Mantener actualizados grupos, permisos y accesos según cambios organizacionales o necesidades de proyectos
  • Actuar como punto principal de contacto para soporte técnico e incidentes relacionados con las plataformas
  • Asesorar a los equipos en buenas prácticas de uso eficiente y seguro de las plataformas (optimización de costos, data sharing, orden de workspaces)
  • Mantener documentación clara y actualizada de la plataforma (onboarding, FAQs, guías de troubleshooting)

Qualifications and requirements

  • Título universitario en Ciencias de la Computación, Sistemas de Información o carrera afín, o experiencia equivalente
  • +2 años de experiencia administrando plataformas Snowflake y Databricks (o al menos una con conocimiento sólido de la otra)
  • Dominio de SQL, scripting (Python o Shell) y ecosistemas de datos en la nube (AWS, Azure o GCP)
  • Conocimiento en herramientas de automatización (Terraform, AWS CloudFormation, Databricks CLI/API, entre otros)
  • Experiencia gestionando usuarios, roles y controles de seguridad en entornos regulados
  • Capacidad para diagnosticar y resolver problemas de plataforma
  • Experiencia con herramientas de monitoreo, logging y alertas
  • Inglés intermedio -avanzado o avanzado (indispensable debido a que se realizan reuniones con equipos internacionales)

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
$$$ Full time
Cloud Data Engineer
  • WiTi
  • Santiago (Hybrid)
Python SQL ETL CI/CD
WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.
Este rol forma parte de un equipo responsable de modernizar un ecosistema analítico legado hacia una arquitectura cloud en AWS, con foco en estandarización, performance y escalabilidad. El proyecto implica migrar y optimizar la lógica de bases de datos preexistentes hacia Amazon Redshift, contribuyendo a la automatización del proceso y garantizando la calidad, consistencia y rendimiento de los datos.

Apply directly on Get on Board.

Responsabilidades Clave

  • Analizar y comprender procesos analíticos existentes (en SQL u otros entornos heredados) para reestructurarlos sobre Amazon Redshift.
  • Convertir y optimizar lógica SQL hacia estándares compatibles con Redshift, aplicando buenas prácticas de modelado y rendimiento.
  • Diseñar y documentar enfoques repetibles para la migración de consultas y estructuras de datos (catálogo de reglas, patrones de transformación).
  • Colaborar en tareas de automatización de migraciones (scripts en Python, templates SQL, validaciones automáticas, pipelines CI/CD).
  • Mantener y mejorar procesos ETL/ELT en AWS, apoyándose en servicios como Glue, Lambda, Step Functions y S3.
  • Validar resultados de conversión mediante controles de reconciliación y pruebas de calidad de datos.
  • Documentar decisiones técnicas, reglas de conversión y excepciones para asegurar trazabilidad y mantenibilidad del proceso.

Requisitos Excluyentes

  • 3+ años de experiencia como Ingeniero de Datos o rol equivalente.
  • Dominio avanzado de SQL estándar (uniones complejas, funciones de ventana, CTE, tuning, lectura de planes de ejecución).
  • Experiencia práctica con Amazon Redshift (particionamiento, distribución, optimización de consultas y almacenamiento).
  • Conocimientos sólidos de procesos ETL/ELT en entornos cloud, idealmente AWS.
  • Experiencia en proyectos orientados a migración o modernización de plataformas de datos.
  • Conocimientos en Python para scripting y automatización de validaciones.
  • Nivel intermedio o superior de inglés técnico.

Deseables

  • Experiencia con DataOps, manejo de pipelines (Airflow, Step Functions o similares).
  • Familiaridad con herramientas de Infraestructura como Código (Terraform, CloudFormation).
  • Experiencia en gobierno de datos, nomenclaturas y validaciones automáticas de calidad.
  • Capacidad de documentar y estandarizar procesos en contextos corporativos.

Beneficios

En WiTi fomentamos una cultura de aprendizaje continuo, colaboración y crecimiento profesional. Entre los beneficios se pueden incluir:
  • Plan de carrera y oportunidades de desarrollo profesional.
  • Acceso a certificaciones y formación continua.
  • Cursos de idiomas y acceso a biblioteca digital para tu desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Data Analyst
  • HF Solutions
  • Santiago (Hybrid)
Python Data Analysis SQL DevOps

En HF Solutions estamos buscando un(a) Data Analyst para integrarse a una importante empresa del rubro de medios de pagos digitales, un sector dinámico que está transformando la forma en que las personas y empresas interactúan día a día.

Serás parte de un equipo que impulsa soluciones tecnológicas de alto impacto, en una compañía que combina innovación, desafío técnico y aprendizaje constante. Aquí tendrás la oportunidad de involucrarte en procesos críticos, entender el negocio desde dentro y aportar con análisis que realmente hacen la diferencia.

Si te motiva trabajar con datos, aprender en entornos exigentes y ser parte de una industria en plena evolución, este desafío es para ti.

This job offer is available on Get on Board.

Funciones del cargo

Buscamos un(a) Analista de Datos para integrarse al equipo de SRE, con foco en monitoreo, análisis de datos y soporte a procesos productivos en un entorno de medios de pago digitales. Este rol combina habilidades analíticas con una fuerte base técnica, participando activamente en despliegues, QA, observabilidad y soporte a producción.

Trabajarás estrechamente con equipos comerciales y técnicos, contribuyendo a la estabilidad, calidad y mejora continua de nuestras plataformas.

Principales responsabilidades

  • Monitoreo de sistemas y plataformas mediante consultas avanzadas en SQL.
  • Análisis de datos para detección de incidentes, mejoras operacionales y toma de decisiones.
  • Construcción y mantenimiento de dashboards de observabilidad.
  • Participación en procesos de despliegue y pasos a producción.
  • Ejecución de QA técnico en soluciones desarrolladas.
  • Colaboración con áreas comerciales para levantar y entender requerimientos.
  • Apoyo en iniciativas de mejora continua dentro del equipo SRE.

Requerimientos del cargo

  • Excluyente:
    • Dominio sólido de SQL (principal foco del cargo)
  • Deseable:
  • Manejo o interés en lenguajes como Python, TypeScript o C
  • Conocimientos en AWS
  • Interés en observabilidad, monitoreo, SRE y prácticas DevOps

Condiciones

- Seguro Complementario de Salud y Dental
- Jornada Lun - Jue 9:00 - 18:00 hrs, Vie - 17:00 hrs
- Modalidad Híbrida: 3 días a la semana presencial
- Ubicación: Las Condes, Santiago.
- 2 bonos según resultados.
- Reajuste anual por IPC.

Health coverage HF Solutions pays or copays health insurance for employees.
Computer provided HF Solutions provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Excel SQL ETL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Applications are only received at getonbrd.com.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python SQL Cloud Computing Data Engineering

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply directly on the original site at Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
$$$ Full time
Data Scientist / Machine Learning Engineer
  • CyD Tecnología
  • Santiago (Hybrid)
Python SQL BigQuery Machine Learning
En CyD Tecnología desarrollamos plataformas web a medida que transforman procesos complejos en soluciones simples y eficientes. Buscamos un Data Scientist / Machine Learning Engineer para liderar la construcción de modelos predictivos orientados a la planificación de ventas y abastecimiento (S&OP). El rol implica procesar y analizar datos desde BigQuery, desarrollar modelos multivariables en Python y generar outputs analíticos para la toma de decisiones. Participarás en la construcción, prueba y ajuste de modelos de machine learning, documentar resultados y generar recomendaciones basadas en datos para optimizar procesos comerciales y de la cadena de suministro en entornos de Google Cloud Platform. Colaborarás estrechamente con equipos de ventas, operaciones y producto, dentro de un entorno ágil para entregar soluciones escalables y orientadas a impacto.

Apply to this job opportunity at getonbrd.com.

Funciones clave

  • Procesar y transformar grandes volúmenes de datos en BigQuery para soportar modelos predictivos y dashboards operativos.
  • Desarrollar, evaluar y mantener modelos multivariables (regresión, clasificación, series temporales) en Python, con énfasis en S&OP y optimización de inventarios.
  • Realizar análisis de drivers de negocio y extracción de insights accionables para mejorar ventas y planificación de la cadena de suministro.
  • Colaborar con equipos de producto, ventas y logística para convertir resultados en recomendaciones concretas y acciones operativas.
  • Documentar modelos, parámetros, supuestos y resultados; generar reportes y presentaciones para stakeholders.
  • Implementar prácticas de ML Ops, monitoreo de modelos y actualización continua en Google Cloud Platform.

Requisitos y perfil deseado

Buscamos un perfil con solides técnicas en ciencia de datos e ingeniería de ML, capaz de traducir datos en decisiones estratégicas para ventas y abastecimiento. Debes trabajar de forma autónoma, comunicar claramente resultados y colaborar en un entorno ágil. Se valorará experiencia en S&OP, análisis de cadenas de suministro y stack de Google Cloud Platform.
Competencias técnicas:
  • Python (pandas, NumPy, scikit-learn, statsmodels) y SQL avanzado.
  • Experiencia con BigQuery y el ecosistema GCP (BigQuery ML, Dataflow/Beam, Cloud Storage).
  • Conocimiento en técnicas de ML para series temporales, forecasting, regresión y clasificación.
  • Habilidad para explicar resultados complejos a públicos no técnicos y generar recomendaciones accionables.
  • Experiencia con herramientas de visualización y storytelling de datos.
  • Metodologías ágiles y capacidad de trabajar en equipo multifuncional.

Competencias académicas:

  • Ingeniero Civil Informático, Industrial o Afín.

Deseables

Se valorará experiencia específica en S&OP, optimización de inventarios y operaciones de compra/planning. Conocimiento de ML Ops, Docker/Kubernetes, TensorFlow o PyTorch y familiaridad con estructuras de datos ERP.

Beneficios

Ofrecemos seguro complementario de salud y jornada híbrida de trabajo. En CyD Tecnología promovemos un entorno de trabajo flexible, oportunidades de desarrollo profesional y proyectos con impacto real en la transformación digital de clientes. Contamos con una cultura ágil, equipo colaborativo y horarios compatibles con productividad. Únete para crecer junto a un equipo líder en soluciones web y móviles a medida.

Gross salary $2100 - 2500 Full time
Data Engineer (ETL y Datos)
  • Equifax Chile
  • Santiago (Hybrid)
Java Python Scala ETL
En Equifax Chile transformamos datos en oportunidades. Como parte de una compañía global de data, analítica y tecnología, trabajamos para ayudar a instituciones financieras, empleadores y agencias gubernamentales a tomar decisiones críticas con mayor confianza. En este rol de Data Engineer, nos enfocamos en el ciclo de vida del dato: desde que las fuentes ingresan a la compañía, pasando por el diseño e implementación de la solución, hasta el uso final por distintos clientes internos y externos. Integrar, modelar y poner en producción procesos de ETL y atributos analíticos es clave para habilitar consumo confiable, escalable y listo para analítica.

Apply directly on the original site at Get on Board.

¿Qué harás?

Como Data Engineer, seremos responsables del análisis constante de las fuentes, del diseño y la implementación del ciclo de vida del dato: desde que llega a la compañía hasta el uso final por los distintos clientes internos como externos.
  • Análisis de Requerimientos de negocio.
  • Diseño de Datos y Solución.
  • Implementación y Mejora de procesos de ETL.
Además, trabajaremos con tecnologías de modelamiento y manejo de datos, con conocimientos del área estadística y conocimientos básicos de modelamiento para la puesta en producción de modelos y atributos analíticos.

¿Qué experiencia necesitas?

Buscamos que cuentes con al menos 2 años de experiencia con alguna herramienta de ETL, por ejemplo: SSIS, Pentaho, Data Factory u otras. También requerimos al menos 2 años de experiencia con desarrollo de ETL en alguno de los siguientes lenguajes: Java, Scala o Python.
Adicionalmente, necesitamos que tengas al menos 2 años de experiencia con motores de bases de datos.
Valoraremos conocimientos relacionados a tecnologías de modelamiento y manejo de datos, conocimientos del área estadística y conocimientos básicos de modelamiento para la puesta en producción de modelos y atributos analíticos.
En el día a día, esperamos que seas una persona analítica, orientada a la mejora continua y con foco en entregar soluciones confiables para clientes internos y externos. Te moverás entre requerimientos de negocio y la implementación técnica, manteniendo claridad en el diseño de la solución y en la evolución de los procesos de ETL.
Requisito adicional: inglés intermedio.

¿Qué podría diferenciarte?

  • Al menos un año con experiencia en la nube (deseable, no excluyente).
  • Al menos un año con experiencia en herramientas CI/CD a nivel usuario (no desarrollo), por ejemplo: GoCD, Jenkins, Azure DevOps u otra.
  • Experiencia y criterio para apoyar la puesta en producción de modelos y atributos analíticos, considerando buenas prácticas de datos y continuidad operativa.

¿Qué ofrecemos?

Ofrecemos modalidad de trabajo híbrido con horarios flexibles para un balance saludable entre vida personal y laboral, además de días libres adicionales para fomentar el bienestar. Nuestro paquete de compensación integral incluye seguro médico complementario y convenio con gimnasio para promover un estilo de vida saludable. También contamos con beneficios específicos para madres y padres en la organización. Podrás acceder a una plataforma de aprendizaje en línea para desarrollo profesional continuo, junto con programas de reconocimiento que valoran el aporte de cada integrante del equipo, en un entorno diverso, multicultural y orientado al crecimiento de carrera.

Wellness program Equifax Chile offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Equifax Chile offers space for internal talks or presentations during working hours.
Life insurance Equifax Chile pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage Equifax Chile pays or copays health insurance for employees.
Mobile phone provided Equifax Chile provides a mobile phone for work use.
Company retreats Team-building activities outside the premises.
Computer repairs Equifax Chile covers some computer repair expenses.
Dental insurance Equifax Chile pays or copays dental insurance for employees.
Computer provided Equifax Chile provides a computer for your work.
Education stipend Equifax Chile covers some educational expenses related to the position.
Fitness subsidies Equifax Chile offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Equifax Chile covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Equifax Chile gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Equifax Chile offers paid parental leave over the legal minimum.
$$$ Full time
Data Science Engineer
  • Rankmi
  • Lima &nbsp Ciudad de México &nbsp Santiago (Hybrid)
Python Machine Learning SaaS Data Science

Buscamos a una persona que hoy esté trabajando como Data Scientist aplicado, ML Engineer o AI Engineer, idealmente en una empresa de producto, que ya haya construido soluciones con IA (especialmente LLMs) y las haya llevado a producción.

No es un perfil académico ni de research. Es alguien hands-on, que usa IA para resolver problemas reales, construye soluciones concretas (no solo modelos) y entiende cómo funcionan en producción.

Misión del cargo

  • Responsable de diseñar, construir y validar modelos de inteligencia artificial que resuelven problemas concretos del producto. Toma casos de uso (como evaluar el match entre un candidato y una vacante), desarrolla el modelo —usando tecnologías como LLMs— y lo testea rigurosamente para asegurar que los resultados sean precisos, consistentes y útiles en la práctica.

Official job site: Get on Board.

Funciones del cargo

  • Traducir problemas complejos de negocio en soluciones técnicas de IA, definiendo la arquitectura completa desde los inputs necesarios y la lógica del modelo hasta la entrega de resultados (outputs).
  • Construir y desplegar soluciones utilizando Large Language Models (LLMs) y técnicas de Machine Learning, incluyendo el diseño de prompts, flujos de trabajo y agentes de IA.
  • Testear rigurosamente los modelos desarrollados para garantizar que los resultados sean precisos, consistentes y confiables en entornos de producción.
  • Realizar ajustes iterativos y monitoreo post-lanzamiento para corregir desviaciones, mejorar el rendimiento y asegurar la escalabilidad de las soluciones implementadas.
  • Mantenerse actualizado en las tendencias, herramientas y modelos emergentes de IA, evaluando y proponiendo proactivamente tecnologías que aporten una ventaja competitiva a Rankmi.
  • Actuar como puente entre negocio, producto y tecnología, explicando conceptos complejos de IA de forma simple para facilitar el alineamiento estratégico y la toma de decisiones.
  • Trabajar estrechamente con los equipos de Ingeniería para la integración técnica de los modelos en la plataforma y con los equipos de Operaciones para optimizar procesos internos mediante IA.

Requerimientos del cargo

  • Título profesional en Ingeniería Civil Informática, Ciencias de la Computación, Matemáticas, Estadística o carreras afines.
  • Entre 3 y 5 años de experiencia en Data Science, Machine Learning o IA aplicada, con experiencia comprobable llevando soluciones desde la experimentación hasta la producción (shipped features).
  • Manejo intermedio de Python, experiencia práctica con LLMs (OpenAI u otros), arquitecturas de datos y despliegue de modelos en sistemas reales.
  • Habilidades de comunicación para explicar IA a perfiles no técnicos.

Opcionales

  • Experiencia en el sector SaaS B2B.
  • Conocimiento en la construcción de copilotos, agentes o automatizaciones complejas.

Condiciones

🤸 Work-Life Balance

  • Blended Working: Nuestro modelo de trabajo es híbrido en Chile, Perú y México. En el resto de los países, es 100% online.
  • Días de vacaciones adicionales para desconectarte y recargar energías.
  • Día libre para mudanza.
  • Flexibilidad en horarios laborales. Somos autónomos, sabemos que nuestros compañeros y clientes confían en que seremos responsables.

💖 We Care

  • Medio día libre en tu cumpleaños, en el de tus hijos/as, y/o cónyuge.
  • Permiso de postnatal adicional para padres.
  • Bonos por diversas ocasiones: programa de referidos, matrimonio/unión civil, nacimiento de hijo/as.
  • Porque nuestras mascotas también son parte de la familia, te ofrecemos un día libre en caso de pérdida.

✨ Rankmi Vibes

  • Dress code relajado.
  • Trabajo con metodologías ágiles y equipos multidisciplinarios.
  • Ambiente multicultural.

Partially remote You can work from your home some days a week.
Computer provided Rankmi provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Rankmi gives you paid vacations over the legal minimum.
Gross salary $3500 - 3700 Full time
Data Scientist
  • Coderslab.io
Python Machine Learning Data Engineering ML Ops
Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.

Apply directly from Get on Board.

Funciones del cargo

Diseñar, desarrollar y validar modelos de machine learning, analítica avanzada e inteligencia artificial orientados a casos de uso de negocio.
Construir y ejecutar experimentos de ciencia de datos evaluando métricas de desempeño, sesgo, estabilidad y capacidad de generalización.
Utilizar Amazon SageMaker para entrenamiento, tuning, versionamiento, despliegue y monitoreo de modelos.
Implementar soluciones de IA generativa y agentes utilizando Amazon Bedrock y sus capacidades asociadas.
Preparar, explorar y transformar datos de distintas fuentes, asegurando calidad, consistencia y disponibilidad.
Desarrollar notebooks, pipelines y procesos reproducibles para entrenamiento y evaluación de modelos.
Colaborar con equipos de datos, arquitectura, negocio y desarrollo para traducir requerimientos en soluciones analíticas productivas.
Participar en la industrialización de modelos, incluyendo pruebas, monitoreo, observabilidad y mejora continua.
Asegurar buenas prácticas de MLOps, gobierno de modelos, seguridad y uso eficiente de recursos cloud.
Documentar supuestos, metodología, resultados y limitaciones técnicas de los modelos desarrollados.

Requerimientos del cargo

  • Experiencia sólida y comprobable con Amazon SageMaker.
  • Experiencia en Amazon Bedrock para soluciones de IA generativa.
  • Conocimiento práctico del ecosistema AWS: S3, Lambda, API Gateway, RDS, Glue, Athena, CloudWatch e IAM.
  • Mínimo 3 años en roles de Data Scientist, Machine Learning Engineer o posiciones afines.
  • Experiencia en desarrollo y despliegue de modelos en ambientes productivos sobre AWS.
  • Dominio de Python y librerías orientadas a ciencia de datos y machine learning.
  • Conocimiento de feature engineering, experimentación, evaluación de modelos y monitoreo post-despliegue.
  • Manejo de datos estructurados y, deseable, no estructurados.
  • Conocimiento de principios de MLOps, CI/CD y buenas prácticas de versionamiento y reproducibilidad.
  • Título profesional en Ingeniería Civil en Computación, Ingeniería Informática, Ingeniería Matemática, Estadística, Ciencia de Datos o carrera afín.

Opcionales

AWS Certified Machine Learning – Specialty
AWS Certified Data Engineer – Associate
AWS Certified Solutions Architect – Associate
AWS Certified Developer – Associate
AWS Certified Cloud Practitioner

Condiciones

Remoto
Fulltime

Gross salary $2000 - 2200 Full time
Python SQL Spark CI/CD
Interfell conecta empresas con el talento IT de LATAM, gestionando procesos de Staffing y Recruiting para impulsar el trabajo remoto y la transformación digital. Nuestro objetivo es potenciar la inclusión y el equilibrio vida-trabajo, brindando una experiencia de contratación integral y de alta calidad. Esta posición forma parte de un equipo enfocado en generar oportunidades de ventas y vínculos con potenciales clientes, contribuyendo al crecimiento de nuestras operaciones en la región.
Como Data Architect, serás responsable de diseñar y definir la arquitectura del Data Lake multitenant en AWS, garantizando escalabilidad, seguridad, gobernanza y capacidad de crecimiento para integrar múltiples fuentes de datos.
Este rol es clave para establecer estándares técnicos que permitan la integración consistente de nuevas fuentes de datos, asegurando calidad, trazabilidad y eficiencia en el procesamiento.
Contrato por 2 meses

Send CV through Get on Board.

Job functions


Diseño de arquitectura multitenant

  • Diseñar la arquitectura del Data Lake en AWS considerando múltiples clientes o dominios de datos
  • Definir esquemas de particionamiento, namespaces y control de acceso por tenant
  • Establecer las capas del Data Lake (RAW, PROCESSED, CURATED)
  • Diseñar estrategias de organización y particionamiento de datos

Definición de estándares CI/CD

  • Diseñar el framework de CI/CD para pipelines de datos
  • Definir procesos de despliegue automatizado
  • Establecer la estructura de repositorios y versionamiento

Estrategia de ingestión de datos

  • Definir estrategias de ingestión para APIs, bases de datos y streaming
  • Diseñar patrones de integración usando AWS Glue, DMS y Kafka

Gobernanza y calidad de datos

  • Establecer estándares de calidad (evitar nulos, duplicados, asegurar llaves primarias)
  • Definir políticas de catalogación, metadata y control de acceso

Optimización y escalabilidad

  • Diseñar la arquitectura considerando crecimiento en volumen y fuentes de datos
  • Definir estrategias de optimización de costos en AWS

Acompañamiento técnico

  • Guiar técnicamente a Data Engineers y DevOps durante la implementación
  • Validar pipelines y decisiones de arquitectura

Qualifications and requirements


Formación y experiencia

  • Ingeniería de Sistemas, Informática o carreras afines
  • +4 años diseñando arquitecturas de datos
  • Experiencia en arquitecturas Data Lake, Medallion y Multitenant
  • Experiencia definiendo reglas de transformación entre capas
  • Experiencia estableciendo estándares de ingestión y transformación

Habilidades técnicas

  • AWS (S3, Glue, DMS, Kafka, IAM)
  • Modelado de datos
  • Spark, SQL y Python
  • Terraform y Databricks
  • Arquitecturas multitenant
  • CI/CD pipelines
  • Gobernanza de datos
  • Optimización de costos en AWS

Habilidades blandas

  • Capacidad de diseño estratégico
  • Comunicación con stakeholders técnicos y de negocio
  • Pensamiento analítico

Conditions

Oportunidad de crecimiento con un equipo multinivel
Vacaciones y feriados
Flexibilidad y autonomía
Pago USD
Trabajo remoto - Latam

Fully remote You can work from anywhere in the world.
$$$ Full time
Ingeniero/a de Datos
  • WiTi
  • Santiago (Hybrid)
Python SQL ETL AWS

WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.

Buscamos un/a Ingeniero/a de Datos para integrarse a un proyecto estratégico en uno de los grupos de distribución automotriz más importantes del país, con operaciones a nivel nacional y una infraestructura de datos en plena etapa de transformación y modernización.

Serás responsable de diseñar, implementar y documentar procesos de carga, transformación y migración de grandes volúmenes de datos en un entorno AWS. Trabajarás en un contexto enterprise donde la calidad, la trazabilidad y la reproducibilidad de los resultados son fundamentales, colaborando con equipos técnicos y de negocio para asegurar que los datos sean confiables, escalables y mantenibles.

Send CV through getonbrd.com.

Responsabilidades Clave

  • Diseñar un enfoque repetible para la carga de grandes volúmenes de datos, estandarizando reglas y patrones de conversión.
  • Participar en automatizaciones de procesos mediante scripts, reglas de validación, templates y pipelines.
  • Implementar y mantener procesos ETL/ELT en AWS, integrándose con el stack del cliente en fuentes, cargas, transformaciones y monitoreo.
  • Documentar reglas de negocio, decisiones técnicas y casos borde para asegurar que los procesos sean mantenibles y escalables.

Requisitos Excluyentes

  • SQL avanzado: PL/SQL, queries complejas, optimización, joins pesados, window functions, CTEs y lectura de planes de ejecución.
  • Experiencia con Amazon Redshift: escritura de SQL, performance y buenas prácticas.
  • Conocimiento del mundo ETL/ELT en AWS (las herramientas específicas pueden variar según el stack).
  • Experiencia trabajando en contextos enterprise con foco en calidad, trazabilidad y resultados reproducibles.
  • Disponibilidad para asistir presencialmente 3 o 4 veces por semana a oficinas ubicadas en Panamericana altura de Lampa

Requisitos Deseables

  • Experiencia en automatización de migraciones: reglas de conversión, validaciones automáticas y pipelines de QA.
  • Conocimientos de Python u otro lenguaje de scripting para apoyar automatización y controles.
  • Conocimientos de AWS QuickSight.
  • Experiencia con gobierno de datos y buenas prácticas: naming conventions, documentación y data quality checks.

Beneficios

En WiTi promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Data Analysis Excel SQL

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

Apply to this job from Get on Board.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&amp;M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Data Engineer
  • WiTi
  • Santiago (Hybrid)
Python SQL ETL Automation

WiTi conecta talento tecnológico con proyectos de alto impacto en Latinoamérica. Nuestro equipo se enfoca en la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles, con énfasis en resolver problemas complejos a través de soluciones innovadoras.

Buscamos un/a Ingeniero/a de Datos para integrarse a un proyecto estratégico en uno de los grupos automotrices líderes del país, con presencia nacional en la comercialización de vehículos livianos y comerciales, y una infraestructura de datos en plena etapa de modernización y escalamiento.

Serás responsable de diseñar, implementar y documentar procesos de carga, transformación y migración de grandes volúmenes de datos en un entorno AWS.

Trabajarás en un contexto enterprise donde la calidad, la trazabilidad y la reproducibilidad de los resultados son fundamentales, colaborando con equipos técnicos y de negocio para asegurar que los datos sean confiables, escalables y mantenibles.

© Get on Board.

Responsabilidades Clave

  • Diseñar un enfoque repetible para la carga de grandes volúmenes de datos, estandarizando reglas y patrones de conversión.
  • Participar en automatizaciones de procesos mediante scripts, reglas de validación, templates y pipelines.
  • Implementar y mantener procesos ETL/ELT en AWS, integrándose con el stack del cliente en fuentes, cargas, transformaciones y monitoreo.
  • Documentar reglas de negocio, decisiones técnicas y casos borde para asegurar que los procesos sean mantenibles y escalables.

Requisitos Excluyentes

  • SQL avanzado: PL/SQL, queries complejas, optimización, joins pesados, window functions, CTEs y lectura de planes de ejecución.
  • Experiencia con Amazon Redshift: escritura de SQL, performance y buenas prácticas.
  • Conocimiento del mundo ETL/ELT en AWS (las herramientas específicas pueden variar según el stack).
  • Experiencia trabajando en contextos enterprise con foco en calidad, trazabilidad y resultados reproducibles.
  • Disponibilidad para asistir presencialmente 3 o 4 veces por semana a oficinas ubicadas en Panamericana altura de Lampa

Requisitos Deseables

  • Experiencia en automatización de migraciones: reglas de conversión, validaciones automáticas y pipelines de QA.
  • Conocimientos de Python u otro lenguaje de scripting para apoyar automatización y controles.
  • Conocimientos de AWS QuickSight.
  • Experiencia con gobierno de datos y buenas prácticas: naming conventions, documentación y data quality checks.

Beneficios

En WiTi promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
$$$ Full time
Ingeniero de Datos
  • Factor IT
  • Santiago (Hybrid)
Python SQL BigQuery Docker
En Factor IT trabajamos para impulsar la transformación digital en grandes empresas de la región, con foco en Data & Analytics, automatización e inteligencia artificial. Dentro de nuestros proyectos, participamos en iniciativas que construyen y evolucionan plataformas de datos sobre Google Cloud (GCP), integrando servicios, pipelines y automatización para habilitar analítica avanzada y toma de decisiones basada en datos. Te unirás a un equipo que diseña soluciones robustas y escalables, con tecnologías modernas, alto expertise técnico y una cultura de colaboración y aprendizaje continuo.

This posting is original from the Get on Board platform.

Ingeniero de Datos

Como Ingeniero de Datos, nuestro objetivo es diseñar, construir y mantener pipelines de datos confiables y escalables en entornos de GCP, asegurando que los datos fluyan correctamente desde las fuentes hasta los modelos y capacidades analíticas.
Entre tus responsabilidades:
  • Desarrollar y optimizar consultas SQL avanzadas (PostgreSQL, MySQL).
  • Implementar procesos ETL/ELT usando Airflow, dbt y servicios de orquestación/ingesta como Dataflow y Pub/Sub.
  • Programar en Python para automatizar transformaciones e integraciones.
  • Trabajar con servicios y prácticas de GCP para construir soluciones mantenibles.
  • Desplegar y gestionar componentes mediante Docker y Kubernetes, garantizando robustez y escalabilidad.
Nos enfocamos en colaborar estrechamente con el equipo para entender requerimientos del negocio, proponer mejoras y asegurar calidad, eficiencia y confiabilidad en todo el ciclo de vida de la plataforma de datos.

Requisitos excluyentes

Buscamos un Ingeniero de Datos con experiencia práctica para integrarse a proyectos regionales y con impacto real en la transformación tecnológica, especialmente en el sector financiero.
Requisitos excluyentes:
  • SQL avanzado (PostgreSQL, MySQL).
  • BigQuery.
  • ETL/ELT: Airflow, dbt, Dataflow, Pub/Sub.
  • Python.
  • Experiencia en GCP.
  • Docker y Kubernetes.
Además, valoramos:
  • Capacidad para analizar problemas, depurar y mejorar pipelines existentes.
  • Orientación a la calidad y a la confiabilidad de los datos.
  • Buena comunicación y trabajo colaborativo para alinear soluciones con necesidades del negocio.
  • Mentalidad de aprendizaje continuo y adaptación a tecnologías emergentes.
Nos importa que seas proactivo, que puedas proponer mejoras y que mantengas un enfoque responsable en la operación y evolución de la plataforma de datos.

Deseable

Sumará puntos si cuentas con:
  • Streaming (Kafka, Flink).
  • Java o Scala.
  • Experiencia con herramientas BI (Looker, Power BI, Tableau).
Estas habilidades nos ayudan a ampliar la capacidad de análisis, habilitar casos en tiempo real y facilitar la integración con productos y consumo de datos.
Ofrecemos una modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para un balance saludable entre vida profesional y personal.
Vas a formar parte de un ambiente colaborativo, dinámico y con tecnologías de última generación que impulsan el crecimiento profesional y la innovación tecnológica.
Contarás con un paquete salarial competitivo, acorde a la experiencia y perfil, e integrado a una cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo.
Participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero, dentro de una organización que promueve la innovación y el desarrollo profesional continuo.

Gross salary $2300 - 3000 Full time
Python SQL Machine Learning Data Visualization

¿Quieres resolver problemas de pricing y optimización reales, para empresas reales, junto a un equipo senior que lleva décadas en Revenue Management? En Airnguru vas a aplicar data science, donde importan modelos que impactan en las decisiones comerciales de aerolíneas, retailers y universidades. No es un rol de soporte — es un rol en el que tu trabajo se traduce en resultados medibles para el cliente.

Te integras al equipo de Data Science de Airnguru, con un rol de alto impacto, liderando módulos de proyectos de consultoría para distintas industrias.

Airnguru cuenta con un brazo de consultoría especializada en RM y DS con décadas de experiencia. Nuestro equipo combina consultores senior de RM con data scientists para resolver problemas de pricing y optimización en aerolíneas, retail, educación superior y otras industrias. Nuestras soluciones apuntan a maximizar el margen de contribución esperado, generando resultados tangibles y sostenibles para nuestros clientes.

Exclusive to Get on Board.

Qué vas a hacer

Desde el día 1 vas a tener responsabilidades concretas. La expectativa es que rápidamente tomes ownership de módulos completos de los proyectos.

Diseño, construcción y mantenimiento de bases de datos analíticas para proyectos de Revenue Management y pricing. Desarrollo de modelos estadísticos y de ML aplicados: modelos de elección discreta, clustering, series de tiempo, optimización, simulación de escenarios. Desarrollo de pipelines de datos end-to-end en Python (pandas, numpy, scipy, scikit-learn, statsmodels).

Formulación y resolución de problemas de optimización (lineal, no lineal, combinatoria) aplicados a pricing, asignación de recursos, y gestión de inventario. Visualización de datos y construcción de dashboards interactivos para clientes (Plotly, Streamlit, o similar). Elaboración de presentaciones y reportes para Steering Committees y reuniones ejecutivas con clientes.

Investigación de fuentes de datos externas (APIs públicas, web scraping, bases de datos gubernamentales). Liderazgo de módulos de proyectos: modelo de costos, análisis de competencia, motor de pricing, simulación de demanda.

Qué buscamos (excluyentes)

Formación: Título de Ingeniería Civil (Matemática, Computación, Industrial, Eléctrica), Estadística, Economía cuantitativa o carrera afín con formación matemática sólida. Maestría en Investigación de Operaciones, Data Science, Estadística, o área cuantitativa afin (completada o en curso avanzado).

  • Experiencia: 2–4 años resolviendo problemas reales con datos — en consultoría, industria o investigación aplicada. No buscamos años de antigüedad; buscamos evidencia de haber enfrentado problemas complejos y haberlos resuelto.
  • Python avanzado: pandas, numpy, scipy, scikit-learn, statsmodels. Capaz de escribir código limpio, modular y reproducible — no solo notebooks.
  • Estadística y modelamiento: Regresión lineal/logística, modelos de elección discreta, tests de hipótesis, inferencia bayesiana. Que entienda por qué funciona, no solo cómo llamar la función.
  • Optimización: Experiencia formulando y resolviendo problemas de optimización (lineal, no lineal, combinatoria). Familiaridad con solvers (scipy.optimize, PuLP, Gurobi, OR-Tools, o similares).
  • SQL avanzado: Queries complejas con joins, window functions, CTEs, subqueries. Capaz de trabajar con bases de datos grandes de forma eficiente.
  • Capacidad de resolución de problemas complejos: Esto es crítico. Buscamos a alguien que ante un problema ambiguo sepa descomponerlo, formular hipótesis, diseñar un approach, y ejecutar — sin necesidad de que le digan cómo.
  • Propositivo y creativo: Que no espere instrucciones detalladas para avanzar. Que proponga soluciones, cuestione supuestos, y encuentre caminos cuando el problema no tiene una respuesta obvia.
  • Gestión de tiempos y recursos: Capacidad demostrada de manejar múltiples líneas de trabajo, priorizar, y cumplir plazos establecidos. Trabajamos con clientes que esperan entregables en fechas específicas.
  • Comunicación clara: Vas a trabajar con consultores senior y presentar resultados a clientes ejecutivos. Necesitas poder explicar qué hiciste, por qué importa, y qué recomiendas.
  • Inglés intermedio-avanzado: Lectura técnica fluida (papers, documentación, código). Comunicación básica con clientes internacionales.

Deseable (suma pero no excluye)

Experiencia en Revenue Management, pricing dinámico, o economía de la demanda. Modelos de elección discreta avanzados (nested logit, mixed logit, latent class). Experiencia con optimización bayesiana, algoritmos genéticos, o metaheurísticas. Docker, Git con flujo de PRs, CI/CD básico. Cloud (GCP o AWS) y/o BigQuery. Web scraping (requests, BeautifulSoup, Selenium). Streamlit, Plotly Dash, o herramientas de visualización interactiva. Publicaciones o tesis en áreas de optimización, OR, o Data Science aplicada.

Qué ofrecemos

Problemas reales de pricing y optimización en múltiples industrias — no es un rol de mantención de dashboards ni de reportes. Mentoría directa de data scientists senior con experiencia en aerolíneas globales y Revenue Management. Alto impacto desde el día 1: tus modelos y recomendaciones van directo a decisiones comerciales de los clientes.

Contrato indefinido post periodo de prueba (3 meses), con todos los beneficios legales (salud, AFP, vacaciones). 100% remoto, equipo distribuido, cultura de autonomía y entrega. Crecimiento rápido: si demuestras capacidad, en 6–12 meses puedes estar liderando proyectos completos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Airnguru pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Gross salary $1900 - 2200 Full time
Data Engineer
  • Houm
  • Santiago (Hybrid)
Python Git SQL Kubernetes

La persona será dueña de un ecosistema de datos maduro y bien documentado, con más de 300 DAGs en producción, y tendrá por delante una migración estratégica de Airflow 2.x a Airflow 3.x sobre Kubernetes, además de la reconstrucción de flujos legacy que presentan problemas de escalabilidad y mantenimiento.

This company only accepts applications on Get on Board.

Funciones del cargo

  • Ownership y mantenimiento del stack de datos completo: Apache Airflow, dbt, AWS Redshift y S3.
  • Monitoreo proactivo y resolución de incidentes en pipelines de datos.
  • Disponibilización de datos para inteligencia de negocios y otros consumidores internos.
  • Liderar la migración de Airflow 2.x en VM única hacia un cluster Airflow 3.x en Kubernetes.
  • Reconstrucción y modernización de flujos legacy.
  • Colaboración activa con operaciones, producto, finanzas y otras áreas como proveedor interno de datos.
  • Coordinación con DevOps para infraestructura y configuración de repositorios.
  • Apoyo en proyectos transversales que requieran soluciones de datos.

Requerimientos del cargo

Requisitos

  • Título de Ingeniería Civil Industrial o Informática.
  • +2 años de experiencia, idealmente en Start Ups.
  • Experiencia sólida con Apache Airflow (desarrollo de DAGs, debugging, operación en producción).
  • Experiencia sólida con dbt (modelos, tests, documentación, resolución de incidentes).
  • Manejo fluido de Python y SQL.
  • Experiencia con Git y prácticas de trabajo en bases de código grandes.
  • Experiencia con al menos una nube pública: AWS, GCP o Azure.
  • Capacidad de trabajar de forma autónoma tomando decisiones de arquitectura.
  • Excelente comunicación con stakeholders no técnicos.
  • Perfil proactivo: capaz de gestionar y priorizar su propia carga de trabajo, levantar la mano y buscar a las personas correctas.
  • Entusiasmo genuino para colaborar con equipos diversos.

Opcionales

Nice to have

  • Experiencia previa con AWS Redshift y servicios del ecosistema AWS (S3, IAM, etc.).
  • Experiencia con Kubernetes o migración de servicios hacia orquestación en contenedores.
  • Experiencia con MLOps o despliegue de modelos de machine learning en producción.
  • Conocimiento del dominio real estate o proptech.
  • Experiencia con herramientas de observabilidad y monitoreo (Datadog, CloudWatch, etc.).

Condiciones

Lo que ofrecemos

  • More holidays to chill! (días extra de vacaciones).
  • Seguro complementario de salud.
  • Beneficios Caja Los Andes.
  • Tarde libre por cumpleaños (tuyo e hijo/a).
  • 5 días extra de licencia por paternidad.
  • Modalidad híbrida (2 días presencial + 3 remoto).

Health coverage Houm pays or copays health insurance for employees.
Computer provided Houm provides a computer for your work.
Vacation over legal Houm gives you paid vacations over the legal minimum.
Beverages and snacks Houm offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer Junior/Semi Senior
  • Lisit
  • Santiago (Hybrid)
Python Git SQL Docker
En Lisit creamos, desarrollamos e implementamos servicios de software enfocados en automatización y optimización, manteniendo innovación y pasión por los desafíos. Trabajamos con un acompañamiento consultivo para lograr transformaciones exitosas mediante una estrategia integral de implementación. Para el área ASAP, buscamos un/una Data Engineer Junior o Semi Senior que apoye la construcción y evolución de pipelines de datos (ETL/ELT) y modelos asociados a necesidades de negocio. El objetivo es habilitar la generación confiable y escalable de datos para impulsar decisiones y automatizar flujos críticos para el negocio, con calidad, trazabilidad y buenas prácticas.

Apply only from getonbrd.com.

Responsabilidades

En el área ASAP, nos vas a ayudar a:
  • Diseñar, desarrollar y mantener pipelines ETL/ELT que permitan cargar, transformar y preparar datos para consumo analítico y/o operacional.
  • Implementar modelos de datos alineados a requerimientos del negocio, cuidando claridad, mantenibilidad y consistencia.
  • Escribir y optimizar consultas SQL y código Python para automatizar procesos de transformación y extracción.
  • Trabajar con repositorios y versionamiento usando Git, asegurando trazabilidad de cambios y buenas prácticas de desarrollo.
  • Apoyar la integración y despliegue de componentes en plataformas Cloud, idealmente Google Cloud, siguiendo criterios de eficiencia y rendimiento.
  • Colaborar con el equipo para documentar el flujo end-to-end, gestionar dependencias y asegurar calidad de datos en cada etapa.
Buscamos que los datos estén listos a tiempo, con menos retrabajo y con una base sólida para evolucionar modelos y automatizaciones.

Requisitos

Buscamos un/una Data Engineer Junior o Semi Senior para reforzar el área ASAP por urgencia crítica para el negocio.
Requerimos:
  • Conocimiento en una plataforma Cloud (idealmente Google Cloud).
  • Python y SQL en nivel intermedio a avanzado (excluyente).
  • Experiencia en generación de ETL/ELT y modelos de negocio.
  • Conocimientos de Git.
Te va a ir muy bien si:
  • Te gusta trabajar con objetivos claros y priorización (urgencia crítica implica foco y ejecución).
  • Eres ordenado/a con la calidad del dato, la documentación y la reproducibilidad de procesos.
  • Colaboras activamente: levantando dudas temprano, compartiendo avances y proponiendo mejoras.
  • Enfrentas problemas con mentalidad analítica, cuidando performance, validaciones y estabilidad.

Deseable

  • Conocimientos en Docker.
  • Composer (Airflow).
  • Cloud Run y Cloud Run Functions.
  • Terraform.
  • Dataform.
Estos conocimientos suman porque facilitan automatización, despliegues consistentes e infraestructura como código.

Beneficios

100% remoto (según organización). Cuando aplique por necesidad del proyecto, la opción ideal es trabajar en Santiago con modalidad 3x2; en caso borde, modalidad remota. Buscamos mantener un esquema de trabajo que permita foco y continuidad para llegar con calidad a los objetivos del área ASAP.

Si te interesa aportar con pipelines de datos, Python, SQL y buenas prácticas de ingeniería, escríbenos para conversar.

$$$ Full time
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL ETL Data lake
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Exclusive offer from getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
$$$ Full time
Ingeniero de Datos Middle
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Spark Tableau

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

© Get on Board.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un/a Ingeniero/a de Datos Middle para integrarse al COE de Datos e IA, perteneciente a la Gerencia de Planificación y Gobierno de Datos.

🚀 Objetivo del cargo

Apoyar en el diseño e implementación de soluciones tecnológicas asociadas al manejo de datos que permitan fomentar el uso y la toma de decisiones basadas en datos a nivel compañía. a

Se espera que pueda liderar iniciativas dentro de la misma índole (datos) con el apoyo de un Ingeniero de Datos Senior o del Líder de Datos. Aplicar buenas prácticas de arquitectura y gobernanza, y colaborar con áreas de negocio, analítica y TI para habilitar un ecosistema de datos moderno, escalable y seguro ☁️📊

🔍 Principales funciones:

  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Asegurar el correcto uso de los servicios AWS en términos de usabilidad y costos.
  • Diseñar e implementar soluciones automatizadas que consideren los lineamientos de arquitectura y ciberseguridad de la compañía

✨ Si te motiva trabajar con datos, tecnología y generar impacto en el negocio, ¡te invitamos a postular y ser parte de BICE Vida!

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 3 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas y 2 años en AWS.
  • Conocimiento y experiencia trabajando en AWS (Intermedio o avanzado): A nivel práctico, no sólo académico, servicios como: Lambda Function, Glue Jobs (Spark y PythonShell), Glue Crawlers, DMS, Athena, Lake Formation, EventBridge, Step Functions.
  • Experiencia y conocimento en Herramientas de consulta de datos (SQL Intermedio o Avanzado y Python Intermedio o Avanzado) y versionamiento de códigos fuentes.
  • Participación en proyectos relacionados a datos ( Ingeniero de Datos p Analista de Datos trabajando en modelamiento de datos).

✨Sumarás puntos si cuentas con:

  • Terraform
  • Spark
  • Tableau
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
$$$ Full time
Analista de Datos BI Semi Senior
  • Coderslab.io
  • Guayaquil (In-office)
Python Excel SQL Oracle

En Coderslab nos encontramos en la búsqueda de un Analista de Datos BI Semi Senior, encargado de apoyar en la construcción, mantenimiento y mejora de reportes y dashboards de Business Intelligence, asegurando calidad, consistencia y confiabilidad de la información utilizada para decisiones operativas y ejecutar análisis estructurados bajo lineamientos definidos, con autonomía creciente en tareas técnicas recurrentes. Asi como tambien tendrá participación en la consulta y preparación básica de datos para visualización, sin responsabilidad sobre arquitectura de datos, definición de KPIs estratégicos ni liderazgo de modelado complejo o pipelines.

Send CV through getonbrd.com.

Funciones del cargo

  • Construcción y mantenimiento de dashboards en Power BI y/o Tableau.
  • Desarrollo de visualizaciones claras, funcionales y orientadas al seguimiento operativo.
  • Aplicación de buenas prácticas básicas de modelado para consumo analítico.
  • Realización de ajustes y mejoras menores sobre reportes y dashboards existentes.
  • Desarrollo de consultas SQL para extracción, validación y análisis de información.
  • Consulta de datos desde bases Oracle como fuente de origen.
  • Uso básico de PL/SQL para lectura o ajustes simples sobre lógica existente, cuando aplique.
  • Preparación básica de datasets para visualización.
  • Validación de consistencia y calidad de datos.
  • Documentación simple de fuentes y transformaciones realizadas.
  • Generación de reportes operativos periódicos.
  • Identificación de variaciones básicas en indicadores.
  • Atención a requerimientos de ajustes menores en dashboards y reportes.
  • Apoyo en análisis recurrentes bajo lineamientos previamente definidos.
  • Participación en células ágiles o esquemas colaborativos de trabajo.
  • Coordinación con equipos técnicos o áreas fuente para entender origen y estructura de datos.
  • Recepción y aplicación de feedback técnico y funcional.
  • Escalamiento oportuno de incidencias o dependencias técnicas

Requerimientos del cargo

2 o más años de experiencia en análisis de datos o Business Intelligence.
Experiencia en construcción y mantenimiento de dashboards.
Experiencia en generación de reportes operativos periódicos.
Experiencia realizando consultas SQL para extracción, validación y análisis de información.
Experiencia consultando información desde bases Oracle como fuente de origen.
Experiencia en validación de consistencia y calidad de datos.
Experiencia atendiendo ajustes menores sobre dashboards y reportes existentes.
Experiencia trabajando con requerimientos definidos y bajo lineamientos técnicos o funcionales.
Experiencia coordinando con equipos técnicos o áreas fuente para entender origen y estructura de datos.
Profesión requerida (Incluir las certificaciones/ Licencias/ Registros): Ingeniería de sistemas, ingeniería electrónica y/o carreras afines

Habilidades o conocimientos obligatorios:

Manejo de Power BI / Tableau para construcción y mantenimiento de dashboards.
SQL intermedio.
Capacidad para trabajar con joins, filtros, agregaciones y validación de datos.
Excel avanzado.
Capacidad para construir dashboards completos cuando el requerimiento está claramente definido.
Capacidad para realizar consultas y validaciones de datos sobre fuentes existentes.
Capacidad para preparar datasets básicos para visualización.
Capacidad para documentar de manera simple fuentes y transformaciones realizadas.
Capacidad para identificar variaciones básicas en indicadores.
Capacidad para ejecutar tareas definidas con supervisión periódica.
Capacidad para escalar decisiones técnicas complejas, ambigüedades de diseño o necesidades de soporte especializado.
Capacidad para seguir lineamientos técnicos y funcionales.
Pensamiento lógico y estructurado.
Atención al detalle.
Buenas habilidades de comunicación.
Organización y seguimiento.
Disposición para aprendizaje técnico continuo.

Tecnologias que debe manejar

Power BI / Tableau
SQL
Oracle básico
Excel

Opcionales

  • Habilidades y/o conocimientos deseables:
  • Conocimientos básicos de PL/SQL.
  • Conocimientos básicos de Python para scripts simples, automatizaciones ligeras o validaciones puntuales de datos. Conocimientos básicos de modelado para consumo analítico.
  • Experiencia participando en células ágiles o esquemas colaborativos de trabajo.

Condiciones

Modalidad de contratación:03 meses con posibilidad de extension

$$$ Full time
Data Engineer GCP
  • TCIT
  • Santiago (Hybrid)
Python BigQuery ETL Google Cloud Platform

En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

Apply directly through getonbrd.com.

Funciones principales

  • Responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
  • Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
  • Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
  • Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
  • Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
  • Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.

Requisitos y perfil

Buscamos un Data Engineer con dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.

Requisitos técnicos:

  • 1- 4 años de experiencia en Ingeniería de Datos y GCP (Excluyente)
  • Experiencia desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Experiencia en Google Cloud Platform (GCP) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.

Habilidades blandas:

  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).

Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.

Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Condiciones

Trabajo en modalidad hibrida.
Las Oficinas se encuentran ubicadas en la comuna de las Condes, cercano a metro Manquehue.

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
$$$ Full time
Data Engineer Databricks
  • 42Labs
  • Santiago (Hybrid)
Python SQL Scala Databricks

En 42Labs no solo desarrollamos tecnología: construimos soluciones donde lo técnico y lo humano van de la mano. Trabajamos en iniciativas que transforman negocios en distintos verticales (financiero, logística y educación), creando plataformas de datos que permiten tomar mejores decisiones, automatizar procesos y habilitar analítica confiable. Como Data Engineer enfocado en Databricks, seremos parte de un equipo que diseña y mantiene pipelines robustos, escalables y orientados a calidad, asegurando que los datos lleguen a tiempo, con integridad y trazabilidad. Nuestro objetivo es que la plataforma de datos soporte casos de uso reales, desde ingesta y procesamiento hasta modelado y consumo, promoviendo buenas prácticas, colaboración y mejora continua dentro de una cultura transparente y sin jerarquías rígidas.

Exclusive offer from getonbrd.com.

Funciones

En el rol de Data Engineer con Databricks, nuestro foco será construir y operar pipelines de datos de punta a punta, asegurando rendimiento, calidad y mantenibilidad.
  • Diseñar, desarrollar y mantener pipelines de ingesta, procesamiento y transformación de datos en Databricks.
  • Implementar modelos de datos y estrategias de organización (por ejemplo, capas y convenciones) para soportar analítica y reporting.
  • Optimizar rendimiento (jobs, particiones, formatos de almacenamiento y configuración) para costos eficientes y tiempos de respuesta adecuados.
  • Asegurar calidad de datos mediante validaciones, controles de consistencia y manejo de errores/recuperación.
  • Producir trazabilidad end-to-end: documentación, linaje y buenas prácticas de versionado y despliegue.
  • Colaborar con Ingeniería de Software y stakeholders para entender requerimientos, priorizar y convertirlos en soluciones medibles.
  • Monitorear procesos y responder incidentes: revisar logs, métricas y alertas, y proponer mejoras preventivas.
Trabajaremos con autonomía en un esquema híbrido, apoyándonos en feedback constante y en una cultura de colaboración donde la calidad y el impacto en las personas importan.

Requisitos

Buscamos un/a Data Engineer con experiencia práctica en el ecosistema de datos y con foco en construir soluciones confiables, escalables y fáciles de mantener. Valoramos la combinación entre criterio técnico, comunicación clara y orientación a la mejora continua.
Lo que necesitamos de ti
  • Experiencia con Databricks y trabajo con pipelines de datos (ingesta, transformación y orquestación).
  • Conocimientos sólidos en procesamiento distribuido y formatos de datos para optimización de rendimiento.
  • Buenas prácticas de ingeniería de datos: control de versiones, documentación, pruebas/validaciones y manejo de errores.
  • Experiencia implementando capas/modelos para analítica (por ejemplo, a través de enfoques como medallion o similares) y asegurando consistencia.
  • Capacidad para depurar y mejorar rendimiento de jobs (lecturas/escrituras, particiones, configuración y tuning).
  • Conocimientos en SQL y al menos un lenguaje para desarrollo (comúnmente Python/Scala, según el stack).
  • Mentalidad de calidad: validar datos, detectar anomalías y proponer correcciones con enfoque preventivo.
  • Comunicación efectiva: explicar decisiones técnicas, levantar riesgos temprano y alinear expectativas con equipos no técnicos.
Cómo nos gusta trabajar
  • Colaboración genuina y transparencia: nos importa cómo construyes con el equipo, no solo el resultado.
  • Autonomía responsable: propones mejoras, haces seguimiento y entregas con foco en impacto.
  • Aprendizaje constante: te sumas a la Academia 42Labs y disfrutas compartir conocimiento.

Deseable

  • Experiencia con orquestación y programación de workflows (por ejemplo, jobs programados, scheduling y patrones de reintento).
  • Conocimiento de seguridad y gobernanza de datos (permisos, acceso por roles, auditoría básica).
  • Experiencia con herramientas de monitoreo/alertas para operación de pipelines.
  • Participación en diseño de arquitectura de datos (estándares de modelado, convenciones y escalabilidad).
  • Experiencia trabajando con equipos multidisciplinarios (Data, Backend, BI) y levantando requerimientos con claridad.

Beneficios

  • Salud y protección integral: seguros complementarios de salud, dental, de vida y catastrófico 100% financiados por nosotros (con opción de extender a tu familia). También estamos integrados a la red de beneficios de Caja Los Andes y la ACHS.
  • Tiempo y flexibilidad: contamos con Flexi Days y Party Time (tardes libres). Celebramos tu cumpleaños con una tarde libre y damos tiempo extra para hitos como matrimonio, nacimiento de hijos o exámenes de título.
  • Bienestar y equilibrio: promovemos un balance real con un entorno de trabajo híbrido que confía en tu autonomía.
  • Crecimiento: Academia 42Labs, planes de desarrollo personalizados y acceso a Udemy Business.
  • Conectividad y apoyos: bonos mensuales para conexión a internet y plataformas de ocio favoritas, además de aguinaldos en Fiestas Patrias y Navidad.
Si te entusiasma ser parte de una comunidad que aprende, colabora y celebra, queremos conocerte. ¡Postula con nosotros!

Health coverage 42Labs pays or copays health insurance for employees.
Computer provided 42Labs provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal 42Labs gives you paid vacations over the legal minimum.
$$$ Full time
Data Analyst (Data Operations)
  • Equifax Chile
  • Santiago (Hybrid)
Python SQL BigQuery Scrum
En Equifax Chile transformamos datos en oportunidades, apoyando a instituciones financieras, empresas, empleadores y agencias gubernamentales con decisiones críticas basadas en mayor confianza. En este rol, nos enfocamos en la recepción, carga, mantenimiento y control de calidad de la información a través de procesos establecidos. Además, actualizamos métricas y reportes para clientes internos y externos, asegurando trazabilidad y consistencia. También gestionamos y damos seguimiento a aportantes de datos, brindando soporte a requerimientos de data y apoyando iniciativas de creación o mejora de servicios y productos.

Send CV through getonbrd.com.

Qué vas a hacer

  • Recepción de la data, carga, mantenimiento y control de calidad de información mediante procesos establecidos.
  • Actualización de métricas y reportes para el cliente interno y externo.
  • Gestión y seguimiento de aportantes de datos.
  • Soporte de requerimientos referentes a data para clientes internos y externos.
  • Apoyo en proyectos de creación o mejoras a los servicios o productos.

Qué experiencia necesita

Educación: Ingeniería Civil y/o Ejecución en informática / computación / industrial / estadística o afines.
Experiencia: mínimo 3 años.
Conocimientos técnicos:
  • Herramientas de base de datos: SQL y Python para data.
  • Vertex (GCP) y BigQuery (GCP).
  • Uso de API.
  • BI Looker Studio (GCP).
Conocimiento diferencial y buenas prácticas:
  • Conocimientos de gobernanza y calidad de datos.
  • Conocimiento de herramientas de manejo de BI y de estadística.
  • Conocimiento de Scrum y Jira.
Buscamos a una persona ordenada, con orientación a la calidad, capacidad de seguimiento y comunicación efectiva para trabajar con clientes internos y externos.

Qué podría diferenciarte

  • Conocimiento de herramientas de RPA como UiPath (deseable).
  • Conocimientos del manejo de datos (gobernanza, calidad).
  • Conocimientos de herramientas de manejo de BI.
  • Conocimientos de estadística.
  • Conocimientos de Scrum y Jira.

Beneficios

Ofrecemos modalidad de trabajo híbrido con horarios flexibles que permiten un balance saludable entre la vida personal y laboral. Se otorgan días libres adicionales para fomentar el bienestar de nuestros colaboradores.
Nuestro paquete de compensación integral incluye seguro médico complementario, convenio con gimnasio para promover un estilo de vida saludable y beneficios específicos para madres y padres en la organización.
Se tiene acceso a una plataforma de aprendizaje en línea que permite el desarrollo profesional continuo, junto con programas de reconocimiento para valorar el aporte de cada integrante del equipo. Esto contribuye a un entorno diverso, multicultural y orientado al crecimiento de carrera.

Wellness program Equifax Chile offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Equifax Chile offers space for internal talks or presentations during working hours.
Life insurance Equifax Chile pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Health coverage Equifax Chile pays or copays health insurance for employees.
Mobile phone provided Equifax Chile provides a mobile phone for work use.
Company retreats Team-building activities outside the premises.
Computer repairs Equifax Chile covers some computer repair expenses.
Dental insurance Equifax Chile pays or copays dental insurance for employees.
Commuting stipend Equifax Chile offers a stipend to cover some commuting costs.
Computer provided Equifax Chile provides a computer for your work.
Fitness subsidies Equifax Chile offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Shopping discounts Equifax Chile provides some discounts or deals in certain stores.
Vacation over legal Equifax Chile gives you paid vacations over the legal minimum.
Beverages and snacks Equifax Chile offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Equifax Chile offers paid parental leave over the legal minimum.
Gross salary $1900 - 2100 Full time
Ingeniero de Datos
  • VTI-UChile
  • Santiago (Hybrid)
Python Git SQL Linux

El trabajo se enmarca en el desarrollo proyecto FONDEF, titulado “¿Cómo progreso en mi aprendizaje?:
Sistema inteligente para fortalecer la autorregulación del aprendizaje en línea en estudiantes de educación superior”.

Esta iniciativa da continuidad a un proyecto previo orientado al desarrollo de modelos predictivos y explicativos del aprendizaje autorregulado mediante analítica de aprendizaje. En esta nueva etapa, el foco está en el diseño e implementación de soluciones que permitan fortalecer activamente la autorregulación de estudiantes en entornos digitales, entendida como la capacidad de planificar, monitorear y evaluar su propio proceso de aprendizaje.

El trabajo considera el uso intensivo de datos educativos y el desarrollo de herramientas basadas en evidencia para mejorar la experiencia y resultados de aprendizaje en educación superior.

© getonbrd.com.

Funciones del cargo

Responsable de diseñar, completar y optimizar el modelo de datos que soporta las métricas de
aprendizaje de las plataformas LMS administradas por la Oficina EOL, implementadas sobre Open edX.

El cargo tiene como objetivo integrar múltiples fuentes de datos (logs de eventos, bases de datos
relacionales y no relacionales) para estructurar un sistema consistente de eventos, acciones de
aprendizaje y métricas por usuario y curso, así como habilitar el acceso a esta información mediante APIs
para su consumo en interfaces y sistemas externos.

Se espera que el candidato sea capaz de comprender rápidamente arquitecturas de datos existentes,
trabajar sobre sistemas en desarrollo y completar tanto el modelamiento como la capa de exposición de
datos.

Responsabilidades Claves

Modelamiento de Datos Analíticos:

Diseñar, completar y mantener el modelo de datos; analítico (eventos, métricas, dimensiones).; Definir estructuras de datos orientadas a analítica (tablas de hechos, dimensiones, relaciones); Asegurar consistencia, trazabilidad y calidad de los datos.; Documentar modelos y definiciones de métricas.

Integración de Fuentes de Datos

Integrar datos provenientes de: o logs de eventos de la plataforma o bases de datos relacionales (SQL) o bases de datos no relacionales (MongoDB) Diseñar procesos de transformación de datos (ETL/ELT). Resolver problemas de integración, duplicidad y calidad de datos.

Análisis y Estructuración de Eventos

o Interpretar y estructurar eventos de interacción de usuarios. o Modelar acciones de aprendizaje y comportamiento dentro de la plataforma. o Definir métricas clave a partir de eventos (engagement, progreso, uso, etc.).

Desarrollo de APIs de Datos

o Diseñar y desarrollar APIs para exponer métricas y datos analíticos. o Implementar endpoints eficientes para consumo por interfaces y sistemas externos. o Asegurar buenas prácticas de diseño (performance, versionado, consistencia).

Optimización y Soporte Analítico

o Optimizar consultas y estructuras para análisis eficiente. o Apoyar la generación de reportes y visualizaciones. o Colaborar con equipos técnicos y funcionales.

Requisitos técnicos.

Bases de datos relacionales (PostgreSQL/MySQL) Avanzado
Bases de datos no relacionales (MongoDB) Avanzado
SQL avanzado (consultas complejas, optimización) Avanzado
Modelamiento de datos analíticos (eventos, hechos, dimensiones) Avanzado
Python (procesamiento de datos y desarrollo backend) Avanzado
Uso de ORMs en Python Medio
Manejo de migraciones Medio
Desarrollo de APIs REST Avanzado

Frameworks backend (FastAPI y/o Django) Avanzado
Procesos ETL/ELT Medio
Sistemas basados en eventos / tracking de usuarios Medio
Git Medio
Linux / Docker Medio

Condiciones

  • Viernes cortos.
  • Días administrativos.

Partially remote You can work from your home some days a week.
Informal dress code No dress code is enforced.
Gross salary $900 - 1200 Full time
Data Process Analyst
  • Datasur
  • Santiago (Hybrid)
Python PostgreSQL ETL Automation

En Datasur, somos líderes en inteligencia comercial basada en datos de comercio exterior. Nuestra plataforma procesa millones de registros de importaciones y exportaciones de más de 70 países, y estamos listos para escalar más alto.

Buscamos un/a Ingeniero/a de Procesos con al menos un año de experiencia para un proyecto de automatización del flujo de producción de datos. El rol se enfoca en levantar, analizar, documentar y mejorar procesos, impulsando la transición desde operaciones manuales a modelos estandarizados, trazables y escalables.

Se requiere una visión TI orientada a procesos, capaz de mapear flujos end-to-end, detectar brechas, definir controles y traducir necesidades de negocio en requerimientos funcionales claros. El trabajo abarca todo el ciclo de datos (ingesta, estandarización, calidad, monitoreo, orquestación y carga analítica), identificando riesgos y oportunidades de automatización.

This job offer is on Get on Board.

Funciones del cargo

1. Levantar, analizar y documentar procesos actuales y futuros del flujo de producción de datos.
2. Estandarizar procesos, definiciones, reglas operativas y puntos de control entre áreas.
3. Traducir requerimientos operativos y funcionales en documentos claros para equipos TI.
4. Apoyar la definición de flujos objetivo, casos de uso, reglas de negocio, validaciones y métricas de control.
5. Coordinar con áreas de Producción de Datos y equipos técnicos para asegurar consistencia en el diseño del proceso.
6. Participar en la elaboración de diagramas de proceso, procedimientos, manuales y documentación de operación.
7. Acompañar la implementación de mejoras, haciendo seguimiento a avances, dependencias y acuerdos operativos.
8. Apoyar la definición de indicadores de calidad, trazabilidad, alertas y seguimiento del proceso.

Requerimientos del cargo

  1. Formación en Ingeniería de Procesos, Ingeniería Civil Industrial, Ingeniería en Informática, Ingeniería en Ejecución, Sistemas o carrera afín.
  2. Al menos 1 año de experiencia en levantamiento, análisis, documentación o mejora de procesos.Interés o experiencia en procesos vinculados a TI, datos, automatización o transformación digital.
  3. Conocimiento en modelamiento de procesos, levantamiento de requerimientos y documentación funcional.
  4. Capacidad para interactuar con perfiles técnicos y no técnicos.

Se valorará

  • Experiencia en proyectos de datos, ETL, calidad de datos, automatización o integración de sistemas.
  • Conocimiento general de conceptos como pipelines, validaciones, logs, monitoreo, trazabilidad y gobernanza de datos.
  • Familiaridad con entornos donde participan tecnologías como Python, PostgreSQL, Airflow, Spark o soluciones de procesamiento de datos, aunque el foco principal del cargo no es desarrollar, sino ordenar y mejorar el proceso.

Condiciones

  • Un proyecto desafiante, con impacto real en el mundo del comercio exterior.
  • Equipo comprometido, ágil y con visión de crecimiento global.
  • Libertad para proponer, crear y liderar cambios.
  • Modalidad flexible y cultura de resultados.

Gross salary $3000 - 5000 Full time
Data Engineer
  • Revel Street LLC
SQL DevOps ETL CI/CD

Revel Street LLC helps corporate event planners discover and reach private dining venues through an extensive, dependable database. We use LLMs extensively to gather and enrich venue data, streamline the event planning workflow, and reduce the time and effort required to source options for events such as private dining, cocktail receptions, and conferences. We are looking for an experienced Data Engineer to help us improve data quality, fix existing data issues, and ingest more data from APIs and LLM-based sources to complement our current datasets. Our current stack includes React, TanStack, Cloudflare, Django, and Dagster, and we expect you to design solutions that are scalable, testable, and grounded in core engineering fundamentals.

© Get on Board.

Responsibilities

You’ll proactively turn ambiguous requirements into well-structured engineering plans. You’ll communicate trade-offs and risks early, and you’ll verify outcomes through hands-on testing. You’ll bring a “build, measure, improve” mindset to performance, reliability, and user experience.

  • Design, build, and maintain dbt pipelines for our analytics and operational workloads
  • Build and maintain ETL/ELT processes to ingest data from multiple APIs and other external sources
  • Set up and manage workflows in orchestration platforms such as Dagster
  • Develop and refine our data models to support analytics, reporting, and downstream products
  • Diagnose and fix data quality issues (duplicates, missing fields, inconsistent formats, incorrect mappings, etc.)
  • Implement robust data cleaning and validation checks
  • Integrate LLM-based data enrichment (e.g., using OpenAI or similar APIs) to improve and complement event data
  • Collaborate with our product and ops team to understand data needs and translate them into technical solutions

Requirements

  • Very high English proficiency (clear communication, strong writing, and the ability to collaborate effectively)
  • At least 3 years of data engineering experience including experience with dbt and the modern data stack
  • Some experience with devops, CI/CD, and database management.
  • At least 6 months of experience working exclusively in an agentic coding environment (e.g., Claude Code, Codex)
  • Ability to understand data engineering fundamentals, not just generate code—debugging, reasoning about behavior, and ensuring correctness

Bonus (preferred)

  • Bachelor’s degree in Computer Science, Engineering, or a related field.

Conditions

Fully remote You can work from anywhere in the world.
Gross salary $2000 - 2200 Full time
Python BigQuery Apache Spark CI/CD

Equifax es mucho más que una empresa de informes; es una compañía global líder en datos, analítica y tecnología con presencia en 24 países. En Chile, operan desde 1979 entregando soluciones críticas de ciberseguridad, identidad y riesgo a más de 14.000 empresas.

El Hub Tecnológico (SDC) Lo que hace única a esta oportunidad es que Chile alberga el Santiago Development Center (SDC). Este centro lidera la transformación digital de Equifax a nivel mundial, concentrando cerca del 60% de sus desarrollos tecnológicos globales.

Cultura y Visión Equifax promueve un entorno de colaboración y excelencia técnica, donde el talento local tiene el desafío de crear soluciones de impacto mundial. Su visión es clara: usar la data y la tecnología para potenciar la toma de decisiones financieras en todo el mundo.

Apply directly on the original site at Get on Board.

Funciones del cargo

¿Qué harás en tu día a día?

  • Fuerte enfoque en el desarrollo y procesamiento de datos en la nube.
  • Automatización de procesos y manipulación de datos
  • Consultas y manejo de grandes volúmenes de datos
  • Procesamiento distribuido de datos en tiempo real y por lotes.

Skills

Técnicas

  • 2+ años de conocimiento en Python
  • 2+ años de conocimientos en BigQuery
  • 2+ años de conocimientos en Apache beam / Apache Spark
  • Inglés A2 (conversacional)

Personales

  • Capacidad de autogestión
  • Buenos skills de comunicación
  • Fortaleza en trabajo en equipo
  • Adaptación al cambio (trabajarán en distintas geos de Latam)
  • Título académico en Ingeniería Informática, Sistemas o carreras afines.

Contrato indefinido desde el inicio con 23people - Tiempo del proyecto 6 meses con posible extensión

  • Modalidad: Home Office con residencia en Chile.
  • Experiencia: Desde 2 años en adelante
  • Horario: Lu - Ju 08:30 a 18:30 / Vi 08:30 a 17:30

Deseables

  • Perfil analítico
  • Unit test
  • Airflow
  • PySparck
  • CI/CD
  • Postman
  • Jmeter

Beneficios

Algunos de nuestros beneficios

  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $3500 - 4500 Full time
Windows Server Terraform AWS EC2
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply to this job through Get on Board.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
Gross salary $2400 - 2900 Full time
Python Linux Docker Kubernetes

Coderslab.io es una firma de tecnología que ayuda a las empresas a transformar y hacer crecer sus negocios mediante soluciones innovadoras. Formamos parte de una organización en rápida expansión, con más de 3,000 empleados globalmente y presencia en América Latina y Estados Unidos. Trabajarás en equipos diversos compuestos por los mejores talentos tecnológicos, participando en proyectos desafiantes que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno dinámico y orientado a resultados.

Apply to this job at getonbrd.com.

Funciones

  • Implementar infraestructura reproducible y versionada en OCI utilizando Terraform.
  • Automatizar despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en GitLab.
  • Diseñar y operar arquitecturas basadas en contenedores con Kubernetes y Helm.
  • Gestionar la seguridad de la plataforma con HashiCorp Vault e políticas de OCI IAM.
  • Realizar hardening, tuning y troubleshooting de sistemas Oracle Linux.
  • Integrar servicios mediante Kong API Gateway y políticas personalizadas.
  • Garantizar el cumplimiento de estándares como PCI-DSS y prácticas de ciberseguridad.
  • Desarrollar scripts de automatización en Bash y Python (integración con APIs REST).
  • Colaborar con equipos de seguridad, desarrollo y operaciones para entregar soluciones robustas y escalables.

Requisitos

  • Más de 5 años de experiencia en roles de DevOps/Platform Engineering.
  • Experiencia demostrable en Oracle Cloud Infrastructure (OCI).
  • Dominio avanzado de Oracle Linux y administración de contenedores (Docker, Kubernetes).
  • Conocimiento sólido en seguridad de infraestructura y gestión de secretos.
  • Experiencia en entornos regulados o bancarios (deseable).
  • Capacidad para trabajar en entornos con alta disponibilidad y resiliencia.

Fortalezas Valoradas

Experiencia en implementación de infraestructura como código, automatización de despliegues mediante GitOps, y gestión de secretos en entornos sensibles. Conocimiento en PCI-DSS y prácticas de ciberseguridad, así como habilidades de scripting y resolución de incidentes en entornos críticos.

Beneficios

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

Fully remote You can work from anywhere in the world.
$$$ Full time
Linux Kubernetes Cloud Computing Infrastructure as Code
BC Tecnología, una consultora de TI con experiencia en servicios, outsourcing y selección de profesionales, busca ampliar su equipo con un DevOps Engineer / Cloud Engineer para un proyecto inicial de 6 meses con posibilidad de extensión. El rol contribuirá a la estabilidad y rendimiento de plataformas en producción, trabajando en colaboración con Desarrollo y Seguridad, en un entorno de clientes de alto nivel y diversos sectores (finanzas, seguros, retail y gobierno).

Apply to this job directly at getonbrd.com.

Funciones

  • Garantizar la disponibilidad, estabilidad y rendimiento de sistemas productivos.
  • Gestionar infraestructura como código y automatizar despliegues.
  • Administrar contenedores y clusters Kubernetes.
  • Implementar monitoreo y alertas (Prometheus, CloudWatch, Grafana).
  • Organizar respuestas a incidentes y participar en post-mortems para mejora continua.
  • Trabajar estrechamente con Desarrollo y Seguridad para optimizar la arquitectura.
  • Documentar runbooks y procedimientos operativos para soporte y escalamiento.

Requisitos y perfil

Ingeniería en Informática, Sistemas o similar. Mínimo 3 años en roles DevOps, Cloud u Operations. Sólido dominio de Linux/UNIX, redes y conceptos de seguridad. Experiencia en arquitecturas de alta disponibilidad y gestión de incidentes. Se valora experiencia con entornos en la nube (AWS, Azure, GCP) y herramientas IaC (Terraform, CloudFormation, Ansible). Conocimientos en contenedores (Docker) y orquestación (Kubernetes). Habilidades de scripting (Bash, Python; PowerShell deseable). Capacidad para trabajar de forma proactiva, con buena comunicación y enfoque colaborativo.

Deseables

Certificaciones relevantes en nube (AWS/Azure/GCP) y DevOps; experiencia en entornos regulados; experiencia en monitoreo avanzado (ELK, Datadog) y gestión de costos en la nube. Orientación a soluciones y capacidades de análisis para resolver incidentes de manera eficiente; habilidades de documentación y entrega de runbooks claros.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
$$$ Full time
Git REST API Docker Selenium
En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos y brindar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un QA Automatizador para LATAM, orientado a liderar iniciativas de automatización, promover cultura Shift Left y participar en pipelines CI/CD para garantizar QA continua en ecosistemas modernos. Colaborarás con equipos multidisciplinarios para entregar soluciones de software de alta calidad y mejorar procesos de pruebas a lo largo del ciclo de desarrollo.

Apply from getonbrd.com.

QA Automatizador – LATAM (Remoto, Proyecto)

  • Diseñar e implementar frameworks de automatización robustos para pruebas funcionales, de regresión, smoke y end-to-end (E2E).
  • Automatizar pruebas sobre microservicios, APIs y UI, asegurando cobertura adecuada y mantenimiento de las suites en pipelines CI/CD.
  • Gestionar ambientes con Docker y Kubernetes para entornos de pruebas consistentes y escalables.
  • Coaching al equipo de QA, revisión de pull requests y promoción de prácticas de calidad desde etapas tempranas (Shift Left).
  • Colaborar con equipos de desarrollo y DevOps para optimizar pipelines de integración y entrega continua (CI/CD) y mejorar la calidad del producto.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas y un historial comprobable en entornos modernos. Debe dominar herramientas como Playwright, Cypress, Selenium, Postman y frameworks como Robot Framework o similares. Experiencia con REST APIs, pruebas en contenedores (Docker) y orquestación (Kubernetes) es imprescindible. Conocimientos en Java, JavaScript, TypeScript, Python o Bash para scripting y mantenimiento de pruebas. Familiaridad con herramientas de CI/CD (GitHub Actions, Jenkins, GitLab CI, Bitbucket) y gestión de código en repositorios (Git). Capacidad para comunicarse efectivamente en español e inglés técnico, y habilidades para trabajar en entornos dinámicos y orientados a resultados. Se valorarán experiencia en AWS o tecnologías cloud y capacidad de liderazgo técnico dentro de equipos de QA.

Requisitos deseables

Conocimientos en herramientas de testing de rendimiento y seguridad, experiencia en automatización en entornos multi-nube, certificaciones en calidad de software y familiaridad con metodologías ágiles. Capacidad para adaptar frameworks a nuevas tecnologías y promover una cultura de calidad y mejora continua. Se valorará experiencia en equipos que trabajan en sectores regulados y con alta exigencia de cumplimiento.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
$$$ Full time
Python Agile REST API TypeScript
Niuro connects projects with elite tech teams, empowering collaborative work with leading U.S. companies. As a QA Engineer, you will contribute to impactful industrial data projects that emphasize technical excellence and continuous innovation. You will join a globally distributed team focused on delivering high-quality web applications and robust testing practices. This role supports our mission to simplify global talent acquisition by providing autonomous, high-performance teams and strong administrative support so you can focus on delivering exceptional results.

Find this vacancy on Get on Board.

Role goals and responsibilities

  • Review, test, and validate features delivered by developers in each sprint to ensure quality from requirements to release.
  • Perform functional, regression, exploratory, and edge-case testing across web applications.
  • Identify risks early and provide clear, actionable feedback to the development team.
  • Design, implement, and maintain Playwright automation scripts for UI and API tests.
  • Create and maintain comprehensive technical documentation, including end-to-end system flows.
  • Independently validate features from requirements through production readiness, ensuring reliability and performance.
  • Collaborate with cross-functional teams in an Agile/Scrum environment to improve product quality and testing processes.
  • Contribute to test strategy, test case design, and CI/CD integration for automated testing within pipelines.

Required skills and experience

We are seeking a QA Engineer with a minimum of 4+ years of web-focused QA experience. You should have strong manual testing capabilities and hands-on automation experience using Playwright (UI and API testing) or equivalent tools. A solid understanding of RESTful APIs, HTTP methods, and status codes is essential. Proficiency in scripting with TypeScript and/or Python is required. You will be comfortable testing complex systems and workflows, and have experience working in Agile/Scrum environments. Excellent analytical, problem-solving, documentation, and communication skills are necessary, along with the ability to communicate effectively in English with international teams.

Nice-to-have attributes

Familiarity with additional test automation frameworks and tools, experience with performance testing, and exposure to containerized environments (Docker/Kubernetes) are advantageous. Prior experience in data-heavy or industrial data projects, and a track record of driving quality improvements in cross-functional teams will be highly valued. Strong collaborative mindset and ability to adapt to evolving project requirements in a remote global setting are desirable.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
$$$ Full time
QA Engineer Senior
  • BC Tecnología
  • Santiago (Hybrid)
CI/CD Debugging Quality Assurance Version Control
En BC Tecnología operamos como una consultora de TI con foco en servicios IT, desarrollo de proyectos y outsourcing. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, apoyando la entrega de soluciones de calidad desde la definición de requisitos hasta la validación y mejora continua de procesos. Nuestro objetivo es integrar soluciones que respondan a las necesidades del cliente, con énfasis en metodologías ágiles, crecimiento profesional y desarrollo de productos, manteniendo un enfoque claro en la experiencia del usuario y la eficiencia operativa.

This job offer is on Get on Board.

Funciones principales

Participar en la definición de requisitos, flujos de trabajo y procesos de control de calidad. Colaborar activamente en ceremonias ágiles (Scrum, Kanban). Diseñar, documentar y ejecutar planes y casos de prueba. Ejecutar pruebas funcionales y no funcionales (usabilidad, compatibilidad, rendimiento, seguridad). Realizar testing frontend, backend, APIs y mobile. Reportar, gestionar y dar seguimiento a bugs, defectos e incidencias. Analizar logs, servicios y data de prueba para identificar causas raíz. Evaluar el impacto de cambios en el producto. Monitorear métricas de calidad y estabilidad (Grafana, Kibana u otras). Participar en la ejecución y análisis de procesos de CI/CD. Ejecutar y analizar procesos automatizados de prueba. Detectar oportunidades de mejora en el proceso de desarrollo. Apoyar la gestión de calidad de uno o más equipos de desarrollo.

Requisitos y perfil

Más de 3 años de experiencia en roles de QA / Quality Assurance. Experiencia sólida en QA manual avanzado. Experiencia en pruebas de aplicaciones web, mobile y web services. Experiencia en pruebas de API (Postman, SoapUI). Conocimiento del ciclo de vida del desarrollo de software (SDLC). Experiencia trabajando con metodologías ágiles. Manejo de herramientas de gestión de pruebas e incidencias (Jira, TestLink, Zephyr u otras). Capacidad de documentación técnica clara (casos de prueba, resultados, defectos). Habilidad analítica, atención al detalle y orientación a la mejora continua.
Conocimientos técnicos valorados: lenguajes orientados a objetos (Python, Java o JavaScript). Buenas prácticas de desarrollo (encapsulamiento, escalabilidad). Automatización de pruebas (web, servicios, mobile o scripting). Revisión de código (peer review). Herramientas de debugging (IDE, navegador). Patrones arquitectónicos (MVC, arquitectura en capas, event-driven). CI/CD (Pipelines, Jenkins, Bitrise). Infraestructura y cloud (Docker, AWS, Azure). Control de versiones (GitHub, GitLab, Bitbucket).
“Para avanzar en el proceso, es necesario cumplir con los requisitos técnicos y de experiencia señalados.”

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

$$$ Full time
Senior QA Engineer
  • Improving South America
Python SQL Selenium Kubernetes

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Exclusive offer from getonbrd.com.

Job functions

En Improving South America estamos buscando un/a QA Engineer Senior para sumarse a nuestro equipo y ser una pieza clave en la calidad, estabilidad y confiabilidad de nuestros productos. La persona que se incorpore tendrá un rol activo en la definición de procesos de calidad, automatización de pruebas y acompañamiento de los equipos de desarrollo.

Qualifications and requirements

  • Al menos 3 años de experiencia práctica en automatización de pruebas, tanto API como UI.
  • Experiencia sólida en frameworks de testing automatizado con Selenium.
  • Capacidad para escribir código de pruebas automatizadas.
  • Amplia experiencia en detección, análisis y resolución de bugs.
  • Conocimiento profundo de buenas prácticas de QA.
  • Experiencia con una o más de las siguientes tecnologías:
    • AWS, Kubernetes, GraphQL
    • Python, Ruby, Rails
    • React, JavaScript
    • Jenkins, Jira, GitHub
    • SQL
  • Nivel de ingles: B2+

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $2500 - 3300 Full time
JavaScript Python C# CI/CD

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.

En esta ocasion estamos buscando incorporar un/a QA Automation Engineer con amplia experiencia en entornos productivos, capaz de diseñar, modificar y mantener integraciones y modelos de datos críticos con total seguridad y control del impacto, garantizando la continuidad operativa, la calidad de la información y cero impacto al negocio.

This job is original from Get on Board.

Funciones del cargo

• Diseñar, desarrollar y mantener scripts y marcos de prueba automatizados para aplicaciones web y/o móviles.

• Colaborar con desarrolladores, propietarios de productos e ingenieros de control de calidad manuales para definir estrategias de prueba y garantizar su cobertura.

• Ejecutar conjuntos de pruebas automatizadas, analizar resultados e informar defectos de forma clara y concisa.

• Participar en revisiones de código, proporcionar retroalimentación sobre estrategias de automatización y garantizar el cumplimiento de las mejores prácticas de control de calidad.

• Integrar pruebas automatizadas en los procesos de CI/CD para una ejecución de pruebas eficiente y escalable.

• Contribuir a la mejora de los procesos, herramientas y metodologías de control de calidad para optimizar la calidad del producto.

Requerimientos del cargo

• Más de 3 años de experiencia en ingeniería de control de calidad (QA) con especialización en automatización de pruebas.

• Sólida experiencia práctica con frameworks de automatización Playwright (se requiere Selenium, Cypress o similares son un plus).

• Experiencia con lenguajes de programación/scripting como JavaScript, Python o C#.

• Experiencia con pruebas de API (Postman, REST Assured o herramientas similares).

• Experiencia práctica con herramientas de CI/CD (Jenkins, GitHub Actions, Azure DevOps o similares).

• Sólidos conocimientos de técnicas de diseño de pruebas, metodologías de QA y SDLC.

• Experiencia trabajando en entornos Agile/Scrum.

Inglés avanzado (obligatorio).

Deseable:

• Experiencia con entornos en la nube (AWS, Azure, GCP).

• Conocimiento de pruebas de rendimiento y herramientas relacionadas (JMeter, Gatling).

• Certificaciones de QA ISTQB o similares.

Condiciones

Modalidad: 100% Remoto
Duración del proyecto: 4 meses con posibilidad de extensión

Fully remote You can work from anywhere in the world.
$$$ Full time
Ingeniero de Infraestructura
  • BC Tecnología
  • Santiago (In-office)
PHP PostgreSQL Linux Virtualization
BC Tecnología es una consultora de TI con personal experto en diversas áreas. Nos enfocamos en servicios IT que abarcan administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando para clientes de servicios financieros, seguros, retail y gobierno. Con más de 6 años diseñando soluciones a la medida, nuestras áreas de negocio abarcan consultoría y diseño de soluciones, formación y outsourcing de personal, desarrollo de proyectos y servicios de soporte IT. Nuestro enfoque está en el cliente, metodologías ágiles, cambios organizacionales y desarrollo de productos.

Find this job and more on Get on Board.

Funciones del cargo

  • Administrar, configurar y mantener la infraestructura IT de la organización, con enfoque en entornos virtualizados y plataformas de alto rendimiento.
  • Gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox), asegurando disponibilidad, rendimiento y seguridad.
  • Administrar y optimizar sistemas Linux (Debian, CentOS u otros) y Windows 10 o superiores, incluyendo SSH, servicios web, bases de datos y pila de aplicaciones.
  • Gestionar servicios web (Apache, Nginx), certificados SSL, proxies inversos y optimización de rendimiento; administrar bases de datos (PostgreSQL) y aplicaciones PHP.
  • Monitoreo, respaldo, recuperación ante desastres y gestión de cambios; documentación completa de toda la operativa para continuidad futura.
  • Implementar buenas prácticas de ciberseguridad y mantener la documentación actualizada.
  • Trabajar con equipo de soporte, automatización y desarrollo para garantizar soluciones escalables y sostenibles.

Requisitos y perfil

Formación: Ingeniero en Informática, Ingeniería de Sistemas, Computación u otra formación relacionada.
Experiencia: trayectoria comprobable en gestión y migración de infraestructuras virtualizadas (VMware, KVM, Proxmox).
Conocimientos técnicos: Linux avanzado; SSH; servidores web Apache y Nginx; gestión de bases de datos PostgreSQL; experiencia con aplicaciones PHP; gestión de entornos virtualizados; conocimiento de ciberseguridad de servidores y versiones de sistemas operativos.
Certificaciones: Certificación VMware y certificación en Linux.
Capacidades: documentación detallada de las actividades, capacidad de trabajo en equipo, orientación a resultados, resiliencia ante incidentes y buena comunicación técnica.

Competencias deseables

Conocimientos en Proxmox avanzado, scripting y automatización ( Bash, Python), herramientas de gestión de configuración (Ansible, Puppet), experiencia con Docker/Kubernetes, cloud (AWS, Azure) y técnicas de migración y consolidación de infraestructuras. Se valorará experiencia en ITIL, gestión de proyectos y capacidad para liderar pequeños equipos o proyectos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $1000 - 1300 Full time
Python PHP MySQL PostgreSQL
En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

This posting is original from the Get on Board platform.

Funciones del Puesto

Buscamos un Administrador Linux con experiencia en Debian para unirse a nuestro equipo de infraestructura y desarrollo. Serás responsable de administrar servidores, desplegar aplicaciones y asegurar la disponibilidad de nuestros sistemas en la nube.
Entre tus responsabilidades principales estarán:
  • Administración de servidores Linux (principalmente Debian).
  • Despliegue y mantenimiento de aplicaciones en PHP, Python y Node.js.
  • Instalación, configuración y administración de bases de datos:
    • MySQL y PostgreSQL, incluyendo clústeres y esquemas master + slave.
  • Despliegue y optimización de aplicaciones PHP, principalmente:
    • WordPress.
    • Symfony.
  • Administración y operación en entornos cloud, principalmente en Vultr.
  • Implementación y gestión de respaldos en buckets S3.
  • Manejo de secretos y credenciales con HashiCorp Vault.

Requisitos y Habilidades

  • Experiencia demostrable en administración de sistemas Linux (Debian).
  • Conocimientos en despliegue de aplicaciones web (PHP, Python, Node.js).
  • Experiencia con bases de datos relacionales (MySQL, PostgreSQL).
  • Conocimientos en alta disponibilidad (clusters, replicación).
  • Experiencia en servidores web Nginx y PHP-FPM.
  • Experiencia en respaldos de datos en entornos productivos.
  • Conocimiento de herramientas de seguridad y gestión de secretos.
  • Experiencia con contenedores Docker y Kubernetes.

Conocimientos y Experiencia Deseable

  • Automatización con Ansible, Terraform u otras herramientas IaC.
  • Experiencia en monitoreo y logging (Prometheus, Grafana, Loki, etc.).
  • Buenas prácticas de seguridad y hardening en servidores Linux.

Beneficios

  • Modalidad de trabajo remoto.
  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.
  • Participar en proyectos de alto impacto con tecnologías modernas.
  • Equipo colaborativo y enfocado en buenas prácticas DevOps.
Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Cloud Support Engineer
  • Improving South America
Python MySQL Virtualization Openstack

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

© Get on Board.

Funciones del cargo

Estamos buscando contratar a un Ingeniero de Soporte Cloud que sea experto en resolución de problemas, aprenda rápido, sea entusiasta, altamente motivado y capaz de brindar una excelente experiencia de soporte mientras ayuda a que los clientes empresariales tengan éxito con sus nubes basadas en open-source. En esta posición, el ingeniero interactuará con los ingenieros SysAdmin/DevOps del cliente y los asistirá en la resolución de problemas que surjan en su entorno OpenStack/Kubernetes, manteniendo un alto nivel de cumplimiento de SLA. Este rol implica aprendizaje continuo y perfeccionamiento de habilidades en OpenStack y Kubernetes.

Como Ingeniero de Soporte Cloud, serás responsable del soporte técnico y la consultoría para la creciente base de clientes reportando al Global Cloud Support Manager, cumpliendo con las siguientes responsabilidades:

  • Monitoreo de la cola de tickets (5%)
  • Resolución independiente de problemas de clientes (50%)
  • Explicar y revisar problemas a través de Zoom (5–7%)
  • Mantenimiento de la base de conocimiento/documentación (10%)
  • Capacitación (uno a uno, estudio personal, capacitaciones/handovers) (10%)
  • Reuniones (5–7%)
  • Proyectos (reportes, automatización, customer success, desarrollo de procesos) (10%)

Requerimientos del cargo

  • Conocimiento práctico de los componentes de OpenStack, su arquitectura y su flujo de datos (indispensable).
  • Conocimiento de tecnologías satélite de OpenStack (MySQL, OVS, RabbitMQ, namespaces de red, hipervisores, etc.).
  • Comprensión de clústeres Kubernetes y experiencia práctica resolviendo problemas en clústeres Kubernetes en producción.
  • Más de 3 años de experiencia manejando escalaciones de clientes mediante respuestas por portal, videollamadas (Webex, Zoom, etc.) o teléfono para resolver casos o escalaciones según sea necesario.
  • Excelentes habilidades de comunicación oral y escrita.
  • Experiencia en administración Linux y conocimiento de subsistemas de almacenamiento y redes.
  • Buen entendimiento de tecnologías de virtualización como KVM, libvirt, Xen.
  • Conocimientos básicos de redes: TCP/UDP, DNS, DHCP, ICMP y direccionamiento IP.
  • Competencia en programación y scripting en Python, Bash, awk o sed.
  • Contar con un nivel de inglés intermedio-avanzado o avanzado (indispensable para realizar reuniones y llamadas en inglés).

Opcionales

  • SDN (OVS/OVN), flujo de control de OpenStack, herramientas de gestión de configuración, Golang, AWS, EKS, CKA, Terraform, PCA

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

$$$ Full time
DevOps Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Docker Kubernetes Google Cloud Platform CI/CD
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Nuestro equipo trabaja en proyectos de alto impacto, con enfoque en infraestructura, desarrollo y operaciones, adoptando metodologías ágiles y prácticas de DevOps para entregar valor de manera continua. El/la profesional se integrará a un proyecto relevante en entorno web para un cliente del sector financiero, con posibilidades de crecimiento y aprendizaje en un entorno colaborativo y orientado a resultados.

Find this job and more on Get on Board.

Funciones

  • Implementar y mantener procesos CI/CD para entornos de desarrollo, pruebas y producción.
  • Definir estrategias de despliegue y release management según entorno.
  • Gestionar monitoreo, observabilidad y respuesta ante incidentes (desarrollo, testing y producción).
  • Analizar métricas de rendimiento y optimizar el ciclo de despliegue para eficiencia y estabilidad.
  • Apoyar en resolución de incidentes y brindar soporte técnico al equipo.
  • Trabajar con Google Cloud Platform (GCP), Docker y Kubernetes, así como Terraform (IaC).
  • Colaborar con equipos de desarrollo, seguridad y operaciones para entregar software de alta calidad.

Descripción

Buscamos un DevOps Engineer con al menos 3 años de experiencia para unirse a un proyecto en un entorno web de un cliente del sector financiero. Deberá poseer experiencia práctica en GCP e IaaS, manejo de contenedores con Docker y Kubernetes, y gestión de Infraestructura como Código con Terraform. Se valorará conocimiento de herramientas de observabilidad (Grafana, Loki u otras) y experiencia con GitHub/Git. Se requiere capacidad de análisis, proactividad y enfoque en mejora continua, con habilidad para trabajar en equipo en un entorno ágil y orientado a la entrega de valor al cliente. El lugar de trabajo es híbrido, con presencia en Santiago Centro, y combinará trabajo remoto y colaborativo en oficina según las necesidades del proyecto.

Requisitos deseables

Experiencia adicional con otros proveedores de nube, lenguajes de scripting como Python y/o Go, y conocimiento de prácticas de seguridad en DevOps. Certificaciones en GCP, Kubernetes o Terraform serán valoradas. Capacidad de comunicación efectiva en español (y/o inglés técnico) para colaborar con equipos multifuncionales. Enfoque en la mejora continua, habilidades de resolución de problemas y capacidad para gestionar prioridades en un entorno dinámico.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Gross salary $1800 - 2200 Full time
Linux Cloud Computing CI/CD Infrastructure as Code
BC Tecnología es una consultora de TI con personal experto en diversas áreas tecnológicas. Administramos portafolio, desarrollamos proyectos, realizamos outsourcing y selección de profesionales. Creamos equipos ágiles para Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio, en clientes de servicios financieros, seguros, retail y gobierno. Contamos con 6 años diseñando soluciones a las necesidades de nuestros clientes, con foco en consultoría, formación de equipos, desarrollo de proyectos y servicios de soporte/administración IT. Buscamos participar en proyectos innovadores con clientes de alto nivel, promoviendo un ambiente colaborativo, aprendizaje continuo y crecimiento profesional.

© getonbrd.com. All rights reserved.

Responsabilidades

  • Implementación de Infraestructura como Código (IaC) con Terraform para entornos de producción y staging.
  • Automatización de entornos y despliegues para garantizar entregas rápidas y confiables.
  • Operación de servicios en la nube (principalmente AWS) y gestión de incidentes/operaciones 24x7.
  • Soporte en monitoreo, alertamiento e RCA de incidentes; mejora continua de la observabilidad.
  • Mantenimiento de pipelines de CI/CD y documentación técnica actualizada.

Requisitos y habilidades

Buscamos un/a SRE / DevOps Engineer Junior con 1 a 3 años de experiencia en roles de SRE o DevOps. Requisitos técnicos: experiencia intermedia en Cloud (AWS, GCP o Azure), Terraform intermedio, Docker y Linux intermedios. Conocimientos en CI/CD y automatización (Bash o Python). Deseable experiencia en observabilidad y resolución de problemas en producción. Competencias blandas: proactividad, orientación a resultados, trabajo en equipo y capacidad de aprendizaje continuo. Se valorarán certificaciones en nube y herramientas de automatización.

Deseable

Experiencia práctica con Kubernetes, herramientas de monitoreo (Prometheus, Grafana, CloudWatch), scripting avanzado (Python), y conocimientos en seguridad en nube. Capacidad de trabajar en entornos dinámicos y con clientes de diversos sectores.

Beneficios y próximo pasos

En BC Tecnología promovemos un entorno de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura impulsa el crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Modalidad híbrida ubicada en Las Condes, que facilita combinar trabajo remoto y presencial para un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
$$$ Full time
Linux Docker Cloud Computing Automation
BC Tecnología es una consultora de TI enfocada en Servicios IT, con experiencia en administrar portafolios, desarrollar proyectos, realizar outsourcing y selección de profesionales para equipos ágiles en Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio. Trabajamos con clientes de servicios financieros, seguros, retail y gobierno, promoviendo un enfoque centrado en el cliente, metodologías ágiles y desarrollo de productos. Buscamos integrar a nuestro equipo a un/a SRE/DevOps Junior para apoyar en la implementación, automatización y operación de infraestructuras críticas para servicios digitales, asegurando disponibilidad, estabilidad y observabilidad.
En BC Tecnología participarás en proyectos innovadores con clientes de alto nivel, colaborando con equipos de Desarrollo y Arquitectura para impulsar infraestructura como código, despliegue continuo y soporte a plataformas productivas en un entorno de crecimiento y aprendizaje profesional.

© getonbrd.com.

Funciones

  • Implementación de Infraestructura como Código (IaC) con Terraform para entornos de desarrollo, pruebas y producción.
  • Automatización de entornos y despliegues para acelerar entregas y mejorar la consistencia entre entornos.
  • Operación de servicios en la nube (ideal AWS) y optimización de costos y rendimiento.
  • Soporte en monitoreo, alertamiento e incidentes (RCA) para garantizar disponibilidad y respuesta oportuna.
  • Mantenimiento de pipelines CI/CD y documentación técnica para equipos de desarrollo y operaciones.

Requisitos

• 1 a 3 años en roles SRE o DevOps.
• Nube (AWS / GCP / Azure) – Nivel intermedio.
• Terraform – Nivel intermedio.
• Docker y Linux – Nivel intermedio.
• CI/CD y automatización (Bash o Python).
• Conocimientos en observabilidad y resolución de problemas en producción.

Desirable

• Experiencia en entornos de alta disponibilidad y resiliencia.
• Conocimientos en herramientas de monitoreo (Prometheus, Grafana, CloudWatch) y logging (ELK/EFK).
• Certificaciones en AWS/GCP/Azure o en DevOps (upskilling continuo).

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
$$$ Full time
Ingeniero de SRE / Sector Bancario
  • Devsu
  • Quito (In-office)
Python Kubernetes Ansible Cloud

Con más de 10 años de experiencia impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y Latinoamérica, Devsu ha desarrollado soluciones de alto impacto en sectores como el entretenimiento, la banca, la salud, el comercio minorista, la educación y los seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de un aprendizaje continuo y de participar en proyectos desafiantes y de gran impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en una variedad de productos y soluciones de software.

Buscamos un/a Ingeniero/a de Observabilidad responsable de instrumentar, mantener y optimizar las plataformas de monitoreo de uno de nuestros clientes del sector bancario.

Apply exclusively at getonbrd.com.

Funciones del cargo

  • Configurar, desplegar y dar soporte a la infraestructura de observabilidad (agentes, collectors, pipelines de ingesta, almacenamiento y tableros L1–L3).
  • Colaborar con equipos técnicos para traducir necesidades en extensiones, integraciones y dashboards personalizados.
  • Coordinar con áreas de TI y proveedores la ejecución de arquitecturas de observabilidad (service maps, tagging, seguridad y compliance).
  • Detectar gaps entre necesidades del negocio y herramientas disponibles.
  • Supervisar cumplimiento de estándares y mejores prácticas de observabilidad.
  • Participar en war-rooms y post-incident reviews para acelerar el RCA y documentar acciones preventivas.
  • Capacitar a equipos en instrumentación y uso efectivo de tableros y alertas.
  • Optimizar cardinalidad, retención y costos de telemetría bajo principios FinOps, asegurando calidad del dato.

Requerimientos del cargo

  • Experiencia en instrumentación de observabilidad con herramientas como Dynatrace, Grafana, Zabbix u otras similares.
  • Modelado de métricas, logs y trazas orientadas a SLO.
  • Diseño de pipelines de ingesta y transformación de datos (Kafka, Fluent Bit u otros).
  • Scripting y automatización con Python, Bash, Terraform, Ansible.
  • Conocimientos sólidos en Kubernetes/EKS, servicios cloud (AWS, Azure o GCP) y bases de datos.
  • Conocimientos en infraestructura y networking.
  • Experiencia en troubleshooting avanzado y análisis de causa raíz (RCA) usando prácticas de AIOps y tracing distribuido.
  • Experiencia en metodologías ágiles (Scrum/Kanban) y herramientas como Jira/Confluence.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Gross salary $45000 - 60000 USD/year Full time
Python PostgreSQL React TypeScript
MyBCAT is a managed back-office and call center platform serving 30+ U.S. optometry practices. We handle everything from patient scheduling and insurance verification to phone system automation and clinical workflows. Our platform processes hundreds of thousands of patient interactions and is built to meet strict HIPAA compliance requirements. We are a small, high-autonomy team building at the intersection of healthcare operations and AI. Our engineering culture is AI-native — we build with Claude Code, Codex CLI, and other agent-assisted development tools daily. If you want to ship real production systems fast with a small team that punches way above its weight, this is the role.

Exclusive to Get on Board.

What You Will Build

  • Develop and own features for the Client Portal (React/TypeScript) to manage back-office operations, analytics, and service interactions.
  • Implement Phone System Automation by integrating with Amazon Connect and RingCentral for call routing, transcription, and post-call workflows.
  • Contribute to OptometryConnect EHR—greenfield EHR built on the Oystehr platform—tailoring it for optometry use.

What We Are Looking For

Required: 4+ years building and deploying full-stack apps; strong React and TypeScript frontend; production Python with AWS serverless (Lambda, API Gateway, DynamoDB, S3); Infrastructure as Code experience (Terraform strongly preferred); relational (PostgreSQL) and NoSQL (DynamoDB); CI/CD pipelines (GitHub Actions or similar); high-ownership in a small team; professional English; US business hours alignment (9 AM–6 PM ET).
Strongly Preferred: healthcare/ HIPAA experience; Amazon Connect or cloud telephony; AI-assisted development tools (Claude Code, Copilot); event-driven architectures (EventBridge, SQS/SNS); Cognito or similar identity systems; experience with US-based remote teams.

Desirable but Not Required

Experience with HIPAA-compliant systems, handling PII/PHI, and working in AI-native development environments. Familiarity with AI-assisted coding workflows and a track record of delivering secure, scalable healthcare software.

Benefits & How We Work

Pay: $25,000 – $60,000 USD/year, paid monthly in USD. Contractor role with self-managed taxes. Schedule: Full-time, Mon–Fri, 9 AM–6 PM ET. Equipment: You provide hardware; we supply software licenses and AWS access. Growth: Clear path to expanded responsibilities as MyBCAT scales (current ~$1.3M annualized revenue).

Fully remote You can work from anywhere in the world.
Gross salary $2400 - 3500 Full time
Python Agile Docker Kubernetes
En TCIT somos líderes en desarrollo de software en modalidad cloud con más de 9 años impulsando soluciones de calidad, sostenibles e innovadoras. Trabajamos con metodologías ágiles y aprovechar tecnologías de vanguardia para transformar digitalmente a organizaciones en sectores como transporte de carga, gestión de empresas y proyectos con impacto social. Contamos con experiencia regional e internacional, colaborando en iniciativas en Canadá y con socios tecnológicos para ampliar capacidades en la nube y automatización. Buscamos sumar talento que comparta nuestra visión de revolucionar la transformación digital y crear soluciones que marquen la diferencia.

Find this job on getonbrd.com.

Funciones y responsabilidades

  • Diseñar, implementar y gestionar pipelinas de CI/CD eficientes y confiables en AWS.
  • Automatizar procesos de infraestructura como código (IaC) utilizando herramientas de automatización y orquestación.
  • Configurar y mantener entornos de desarrollo, pruebas y producción escalables y seguros en la nube.
  • Colaborar con equipos de desarrollo para optimizar despliegues, rendimiento, monitoreo y resiliencia de sistemas.
  • Gestionar incidentes, realizar root cause analysis y proponer mejoras preventivas.
  • Participar en revisiones de arquitectura y en la definición de estrategias de seguridad y cumplimiento.
  • Documentar prácticas y guías operativas para mejorar la trazabilidad y el conocimiento compartido.
  • Apoyar proyectos con capacidades de internacionalización y cumplimiento normativo cuando sea necesario.

Perfil buscado

Buscamos un Ingeniero DevOps senior con experiencia sólida en AWS y un historial comprobable de entrega de infraestructuras y automatización en entornos complejos. Debe dominar prácticas modernas de DevOps, con capacidad para trabajar en un equipo ágil e Internacional, comunicación fluida en inglés técnico.
Requisitos:
  • Experiencia de más de 3-4 años en roles DevOps o SRE, con enfoque en AWS.
  • Fuertes habilidades en CI/CD, automatización de infraestructura, contenedores (Docker/Kubernetes) y monitorización (CloudWatch, Prometheus, Grafana).
  • Conocimientos en IaC (Terraform o CloudFormation) y gestión de secretos/seguridad en la nube.
  • Inglés avanzado hablado y escrito (capacidad para comprender documentación técnica y comunicarle a equipos internacionales).
  • Capacidad para trabajar bajo metodologías ágiles y entornos colaborativos.
Valorable:
  • Experiencia en entornos multi-nube o con partners tecnológicos internacionales.
  • Conocimientos en scripting (Python, Bash) y automatización de pruebas.

Condiciones

Trabajo en Modalidad Remota, pero con posibilidad de asistir a oficina ante cualquier eventualidad.
Oficinas ubicadas en la comuna de las Condes, cercano a metro Manquehue.

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
$$$ Full time
QA Engineer II (L4)
  • OpenLoop
  • Lima (Hybrid)
Python ETL TypeScript Testing Frameworks

About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Our Company Culture

We have a relatively flat organizational structure here at OpenLoop. Everyone is encouraged to bring ideas to the table and make things happen. This fits in well with our core values of Autonomy, Competence and Belonging, as we want everyone to feel empowered and supported to do their best work.

Apply from getonbrd.com.

Responsabilities

We're seeking a QA Automation Engineer to join our Data Engineering team and take ownership of quality assurance across our data pipelines and infrastructure. This role will be instrumental in building and maintaining automated test suites that ensure the reliability and accuracy of our healthcare data systems. You'll work closely with a small, focused team of data engineers to establish testing strategies, prioritize coverage for critical data paths, and maintain quality standards as we scale.

• Quality Ownership: Own and maintain the automated test suite that runs in our CI pipeline, including integration tests, data quality checks, and smoke tests for our data infrastructure.

• Strategic Collaboration: Partner closely with data engineers to understand pipeline architecture, identify critical data paths, and develop comprehensive testing strategies that prioritize business-critical datapoints.

• Test Development: Write and maintain automated tests for data pipelines using Python and TypeScript, ensuring coverage across batch and event-driven workflows.

• Data Validation: Implement data quality checks including row counts, schema validation, key-column validation, idempotency testing, and duplicate handling across ETL processes.

• CI/CD Integration: Build and maintain testing frameworks that integrate seamlessly with our CI/CD pipelines using GitHub Actions, AWS CodePipeline, and CodeArtifact.

• Documentation & Standards: Document test cases, testing strategies, and coverage metrics to establish repeatable quality standards across the data team.

• Continuous Improvement: Identify testing gaps and systematically expand coverage toward end-to-end testing of critical data pipelines.

Requirements

• 3 years of experience in QA automation or software testing, with a focus on data pipelines or backend systems.

• 3 years of hands-on experience with Python and TypeScript for test automation.

• Strong experience with CI/CD pipelines (GitHub Actions, AWS CodePipeline, CodeArtifact).

• Hands-on experience working with data lakes and ETL processes on AWS (familiarity with services like S3, Glue, Athena, Lambda, Step Functions, SQS, EventBridge).

• Experience with testing frameworks for Python (pytest, unittest) and TypeScript/JavaScript (Jest, Mocha).

• Understanding of data structures, data modeling concepts, and data lineage.

• Experience testing in a multi-tenant SaaS environment.

• English (C1/C2) fluency.

Desirable skills

ISTQB Certification

Our Benefits

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Life insurance OpenLoop pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Retirement plan OpenLoop pays or matches payment for plans such as 401(k) and others.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Gross salary $800 - 1300 Full time
Python Docker Kubernetes Cloud Computing
En Andestic estamos buscando un Ingeniero Cloud para unirse a nuestro equipo y liderar la arquitectura y operación de nuestras plataformas en la nube. El candidato ideal trabajará de manera estrecha con desarrollo, seguridad y operaciones para entregar soluciones escalables y confiables. Serás parte de un equipo multidisciplinario responsable de diseñar, implementar y optimizar infraestructuras en la nube que soporten aplicaciones críticas y cargas variables.
Proyecto típico: migración a entornos multi-nube, automatización de despliegues, implementación de arquitecturas serverless y contenedorizadas, y establecimiento de procesos de DevOps/DevSecOps. Participarás en la definición de estándares de seguridad, monitoreo, costos y rendimiento, asegurando cumplimiento y gobernanza. Buscamos a alguien que aporte visión de plataforma, buenas prácticas de automatización y un enfoque proactivo para resolver problemas complejos.

Find this job on getonbrd.com.

Funciones

Como Ingeniero Cloud en Andestic, tus responsabilidades incluirán:
  • Diseñar, desplegar y optimizar infraestructuras en la nube (p. ej., AWS, Azure o Google Cloud) para entornos de producción, staging y desarrollo.
  • Implementar infraestructuras como código (IaC) para aprovisionamiento reproducible y escalable (Terraform, CloudFormation, o equivalentes).
  • Automatizar pipelines de CI/CD y mejorar prácticas de DevOps, seguridad y cumplimiento.
  • Configurar y gestionar herramientas de monitoreo, logging y alertas para garantizar alta disponibilidad y rendimiento.
  • Gestionar costos de nube, optimización de recursos y estrategias de reserva de capacidad.
  • Trabajar con equipos de desarrollo para diseñar soluciones resilientes, seguras y fáciles de mantener.
  • Participar en revisiones de arquitectura, documentar decisiones técnicas y fomentar la adopción de mejores prácticas.
  • Contribuir a la seguridad de la nube mediante implementación de controles de identidad, gestión de secretos y políticas de red.
Esperamos que puedas traducir requisitos de negocio en soluciones técnicas robustas y que colabores de forma proactiva para resolver incidentes y planificar mejoras a corto y largo plazo.

Descripción

Buscamos un Ingeniero Cloud con experiencia comprobable en diseño e implementación de infraestructuras en la nube y un historial de entrega de proyectos en entornos dinámicos. El candidato ideal debe tener habilidades en automatización, escalabilidad, seguridad y administración de costos, con capacidad para trabajar de forma autónoma y en equipo. Fomentamos una cultura de mejora continua, aprendizaje constante y comunicación clara entre áreas técnicas y de negocio.
Requisitos técnicos y blandos:
  • Experiencia en al menos una de las principales nubes (AWS, Azure, Google Cloud) y capacidad para migrar y modernizar cargas de trabajo.
  • Experiencia con Ia C (Terraform, CloudFormation, Pulumi) y pipelines de CI/CD modernizados.
  • Conocimiento en redes en la nube, seguridad ( IAM, políticas, cifrado, gestión de secretos) y monitoreo (Prometheus, Grafana, CloudWatch, etc.).
  • Capacidad para diseñar soluciones escalables, resilientes y coste-eficientes; enfoque en rendimiento y SLA.
  • Habilidades de scripting (Python, Bash, o similar) y experiencia con contenedores (Docker, Kubernetes).
  • Orientación a resultados, pensamiento analítico, y capacidad de comunicar decisiones técnicas a audiencias técnicas y no técnicas.
  • Experiencia en entornos de desarrollo Agile; capacidad de priorizar y gestionar múltiples iniciativas simultáneamente.

Desarrollos Deseables

Se valorarán conocimientos en:
  • Arquitecturas multi-nube y migraciones complejas.
  • Automatización avanzada de seguridad y cumplimiento (DevSecOps).
  • Gestión de configuración y secretos (HashiCorp Vault, AWS Secrets Manager, etc.).
  • Despliegues sin servidor (serverless) y arquitecturas basadas en microservicios.
  • Habilidades de resolución de problemas en producción y capacidad para trabajar bajo presión.
  • Buen nivel de inglés para lectura técnica y comunicación con equipos globales.

Beneficios

En Andestic ofrecemos un entorno dinámico, remoto global con flexibilidad horaria y oportunidades de crecimiento. Entre las ventajas se incluyen:
  • Trabajo 100% remoto o híbrido según preferencia y ubicación.
  • Salario competitivo, revisión anual y opciones de desarrollo profesional.
  • Capacitación continua, acceso a conferencias y certificaciones en tecnologías de nube.
  • Equipo colaborativo, cultura de innovación y proyectos desafiantes.
  • Horarios flexibles y equilibrio entre vida personal y profesional.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Project Management Quality Assurance Test Planning API Testing
At Birdie, we’re redefining the currency of gifting and building the future of social fintech. As a QA Engineer, you’ll help ensure our consumer app, web platform, and white-label integrations deliver reliable, high-quality experiences for millions of users. You’ll collaborate across product and engineering teams to validate new features, improve test coverage, and uphold our quality bar. This role sits at the intersection of user experience and technical quality, providing a clear path to expand into automated testing as our product evolves. You’ll be empowered to contribute to release-readiness, regression strategies, and end-to-end quality ownership that protects user trust and drives business impact.

This job is original from Get on Board.

What you'll do

  • Review tickets and product specs to write thorough test plans and test cases before development starts
  • Execute functional, regression, and exploratory testing across web (Next.js), mobile (React Native/Expo), and API surfaces
  • Test payment flows, KYC/identity verification, and onboarding funnels — catching edge cases that matter in a financial product
  • File clear, reproducible bug reports with steps, environment details, and screenshots or screen recordings
  • Verify bug fixes and validate releases before they go live
  • Maintain and improve our test case library in Linear
  • Participate in sprint ceremonies and give QA input during planning to catch issues early
  • Partner with engineers on defining acceptance criteria for new features

Required skills and experience

  • 3+ years of QA experience, ideally at a startup or product company
  • Strong instincts for finding edge cases — you break things methodically, not randomly
  • Experience testing both web and mobile apps (iOS and Android)
  • Comfort testing REST APIs using tools like Postman or similar
  • Ability to write clear bug reports in English — details like environment, steps to reproduce, and expected vs. actual behavior
  • Organized and self-directed — you can manage your own test queue without a lot of hand-holding
  • Experience with a project management tool (Linear, Jira, or similar)
  • Professional working proficiency in English (written and spoken)

Nice-to-have

  • Experience in fintech, payments, or any product handling financial data
  • Familiarity with Playwright, Cypress, or other automated testing frameworks
  • Some scripting ability in Python or JavaScript — enough to read test code and eventually write it
  • Exposure to compliance-sensitive workflows (KYC, identity verification, regulated flows)
  • Experience testing white-label or multi-tenant SaaS products

What we offer

Birdie is committed to building a supportive and inclusive environment. We offer flexible work arrangements, competitive compensation, and opportunities for growth within a fast-moving fintech startup. You’ll join a collaborative team focused on delivering exceptional user experiences and shaping the future of social gifting.
Note: This position supports remote work globally, with regular team collaboration and alignment on product milestones.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Gross salary $3300 - 3600 Full time
Linux Kubernetes CI/CD Infrastructure as Code

En Maxxa estamos en una etapa donde la infraestructura ya soporta operación crítica del negocio, pero aún tiene mucho espacio de mejora y evolución.

Buscamos alguien hands-on que haya operado infraestructura compleja en producción y pueda meterse de verdad en AWS, Kubernetes, Linux, redes e incidentes.

Es un rol de alta expertiz técnica, con impacto directo en todos los equipos de ingeniería, donde tu trabajo facilita —o bloquea— la velocidad de desarrollo.

Job opportunity published on getonbrd.com.

Descripción del puesto

Responsabilidades:

  • Gestionar y optimizar nuestra infraestructura en AWS, donde principalmente tenemos aplicaciones en Kubernetes/EKS, Elastic Beanstalk, y algunas directamente en EC2.
  • Administrar otros servicios de AWS como Route53, Lambda, SQS, SNS, ApiGateway, ElastiCache, Cloudwatch, y EventBridge.
  • Automatizar tareas operacionales y mejorar la eficiencia mediante la implementación de herramientas y scripts.
  • Mantener la infraestructura de la red, garantizando la conectividad segura, privada y eficiente entre nuestros entornos en la nube.
  • Implementar y mejorar prácticas de monitoreo y alertas para detectar y responder proactivamente a problemas de infraestructura.
  • Participar en la resolución de incidentes y llevar a cabo análisis post mortem para prevenir problemas futuros.
  • Documentar y compartir conocimientos sobre las mejores prácticas de operación y gestión de infraestructura.

Este es un rol Senior, por lo que esperamos que puedas hacer lo siguiente sin apoyo constante:

  • Diagnosticar una degradación en producción y acotar si el problema viene de red, Kubernetes, aplicación, base de datos o configuración;
  • Proponer y ejecutar mejoras estructurales en IaC, observabilidad y operación;
  • Revisar diseños técnicos de infraestructura y elevar el estándar del equipo;
  • Tomar ownership de incidentes críticos y liderar su análisis posterior.

Requisitos excluyentes

Buscamos a alguien que ya haya operado en producción, con responsabilidad directa, al menos varios de estos frentes:

  • EKS en producción, incluyendo troubleshooting de networking, ingress, recursos, scheduling y despliegues.
  • AWS networking real: VPC, subnets, routing, security groups, NACLs, load balancers, DNS, conectividad privada, VPN.
  • Diagnóstico de incidentes complejos en Linux, contenedores y servicios distribuidos.
  • Terraform o CloudFormation usado de verdad para cambios recurrentes en ambientes productivos.
  • CI/CD para infraestructura y aplicaciones, con rollback y control de cambios.
  • Observabilidad útil para producción: métricas, logs, alertas accionables, postmortems + conocimiento de herramientas de observabilidad avanzadas (Elastic/Kibana, Sentry, Datadog, etc.).
  • Experiencia gestionando incidentes en producción.

Requisitos deseables (pero muy valiosos)

  • Experiencia en arquitecturas serverless (Lambda, API Gateway, etc.).
  • Experiencia en entornos con foco en seguridad y cumplimiento (auditorías, controles, etc.).
  • Manejo de algún lenguaje de programación/scripting (Python, Go u otro).
  • Experiencia en entornos SaaS de alta disponibilidad.

Beneficios

Te unirás a una fintech donde tu esfuerzo y energía se ven recompensados.

Nos eligieron top 3 del ranking de The Building Happiness de Buk. ¡Tu bienestar es parte de nuestro desafío!

Beneficios:

  • Flexibilidad laboral: Full Remoto, con la opción de ir presencialmente a nuestra oficina en Las Condes.
  • Tiempo de bienestar —¡con metas cumplidas, sales 30 min antes todos los días!— Días administrativos, tarde libre por cumpleaños y día de mudanza.
  • Asignación de almuerzo.
  • Un muy potente Seguro Complementario de salud, dental y vida (al pasar a indefinido).
  • Aguinaldos, Bonos de matrimonio, nacimiento, escolaridad, entre otros.
  • Capacitaciones continuas en UBITS para que nunca dejes de crecer.
  • En oficina corporativa, muchos beneficios: Snack Saludable todos los días, salita de descanso con cafetería ilimitada, actividades para compartir, ¡entre muchos más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Maxxa pays or copays health insurance for employees.
Dental insurance Maxxa pays or copays dental insurance for employees.
Computer provided Maxxa provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Maxxa offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $2500 - 3500 Full time
Python Kubernetes Rust CI/CD
This role centers on designing, automating, and optimizing deployment infrastructure for AI-driven workflows. You will build robust CI/CD pipelines and implement AI-powered automation tools (such as Claude Code, GitHub Copilot CLI, etc.) to maximize engineering efficiency. The goal is to create systems that enable a lean technical team to operate at significantly higher output than traditional staffing models would require. You will own the full infrastructure lifecycle: architecture, deployments, and stability. This includes Kubernetes orchestration, managed database services (AWS RDS), and high-performance tooling in Python and Rust. Basic React knowledge is needed to understand frontend integration points. Success is measured by operational leverage: your automation should allow 1-2 engineers to deliver what typically requires 3-5. This demands deep expertise in infrastructure as code, proactive optimization, and practical application of generative AI tools to DevOps workflows.

Apply directly on the original site at Get on Board.

Key Responsibilities

  • Design, build, and maintain automated CI/CD pipelines that scale with workload demands
  • Implement and lead adoption of AI-powered development workflows to accelerate delivery
  • Architect efficient, scalable deployment systems supporting critical production workloads
  • Ensure post-deployment stability, security, and continuous infrastructure optimization
  • Drive operational leverage through automation that enables small teams to deliver outsized impact

Experience and Skills

  • Senior-level DevOps Engineer with 4+ years of experience
  • C1 English level or higher
  • Advanced Kubernetes orchestration and cluster management
  • Strong Python; Rust experience for high-performance infrastructure tooling
  • Production experience with AWS RDS and managed database services
  • Hands-on experience using AI coding agents and automation tools for DevOps workflows
  • Proven track record building scalable, automated CI/CD pipelines
Skills
  • Kubernetes
  • Python
  • Rust
  • AWS RDS
  • CI/CD
  • AI Coding Agents

Nice to Have

  • React

Conditions

Informal dress code No dress code is enforced.
Gross salary $2500 - 3500 Full time
Python Linux Go Kubernetes
About CloudKite
CloudKite helps teams run reliable cloud infrastructure in production. We design systems that scale without unnecessary complexity or process overhead. We’re a small team by design. That means you’ll work closely with experienced engineers, learn quickly, and have real ownership over your work.
Why CloudKite
  • Learn directly from experienced engineers
  • You’ll work on real, production systems used by active customers.
  • Small team with mentorship and support

This job is published by getonbrd.com.

What You’ll Do

We’re looking for a DevOps Engineer with a solid technical foundation who’s excited to grow. You don’t need to know everything, but you should understand the basics, be comfortable asking questions, and learn by doing. You’ll help operate and improve cloud infrastructure, Kubernetes clusters, CI/CD pipelines, and internal tooling across AWS, GCP, and Azure.
  • Help design, build, and maintain cloud infrastructure across AWS, GCP, and Azure
  • Support production Kubernetes clusters and learn best practices around upgrades, troubleshooting, and performance
  • Work with Infrastructure as Code using Terraform
  • Participate in GitOps workflows using ArgoCD
  • Build and improve CI/CD pipelines
  • Assist with reliability, observability, and security improvements
  • Write automation and tooling in Go and Python
  • Support databases such as PostgreSQL, MongoDB, MySQL/MariaDB, and Microsoft SQL Server, including managed services like Amazon RDS
  • Backups, restores, and basic performance tuning
  • Assist with backup and disaster recovery processes (e.g., Velero)
  • Work with container images, registries, and basic supply-chain security
  • Learn and apply networking fundamentals like DNS, firewalls, and VPNs

What We’re Looking For

You don’t need to be an expert in everything, but you should have a strong foundation in several of these areas:
  • Strong English communication skills (written and spoken); must be comfortable working directly with clients in English.
  • Experience with at least one major cloud provider (AWS, GCP, or Azure)
  • Basic to intermediate Kubernetes knowledge (pods, services, Helm, RBAC concepts)
  • Familiarity with Terraform or another IaC tool
  • Exposure to CI/CD pipelines (GitHub Actions, GitLab CI, etc.)
  • Some experience with Go or Python (scripts, small tools, automation)
  • Basic understanding of Linux systems and networking
  • Willingness to learn, ask questions, and take ownership

Nice to Have (Not Required)

  • Experience across multiple cloud providers
  • GitOps experience with ArgoCD
  • Database administration exposure
  • Consulting or client-facing experience

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Gross salary $2500 - 3500 Full time
Python Git Linux Docker
Resumen
Únete a nuestro Equipo de Infraestructura como Ingeniero de Despliegue Linux, responsable de instalar, configurar y poner en marcha servidores Linux y componentes asociados (red, virtualización, automatización y seguridad básica) dentro de proyectos de infraestructura Cloud y Datacenter.
Tu misión es garantizar el despliegue exitoso de los entornos de infraestructura y la disponibilización de ambientes para la integración de componentes Cloud, cumpliendo los estándares técnicos definidos por Whitestack.
¡Si te apasiona Linux y quieres crecer profesionalmente en el sector de tecnologías cloud, este cargo es para tí!
Este rol está disponible para trabajo remoto desde las siguientes ubicaciones: México, Chile, Argentina, Colombia, Uruguay y Perú.

Send CV through getonbrd.com.

Responsabilidades

  • Ejecutar despliegue de servidores baremetal con requerimientos acordados con el cliente.
  • Instalar, configurar y validar sistemas operativos Linux, asegurando la operación de servicios base, paquetes y repositorios.
  • Configurar red a nivel de sistema operativo: interfaces, VLANs, rutas, bonding y SSH para conectividad persistente y segura.
  • Implementar medidas de seguridad iniciales y hardening (permisos, firewall, etc.).
  • Desplegar, configurar y probar software de Whitestack para la implementación de servidores baremetal según requisitos.
  • Construir y mantener playbooks/roles de Ansible; estandarizar tareas repetibles.
  • Realizar pruebas y troubleshooting para verificar instalación y desplegue de infraestructura física.
  • Elaborar y mantener documentación de la infraestructura del proyecto.
  • Analizar y resolver incidentes durante la implementación; canalizar solicitudes de clientes a áreas internas.
  • Participar en ventanas de mantenimiento de sistemas críticos.

Requerimientos

  • Experiencia:
    • +2 años recientes en administración de servidores Linux (instalación y configuración.
    • Experiencia en servicios de infraestructura Cloud, y/o Datacenter.
  • Formación:
    • Graduados en Ingeniería Informática, Ingeniería de Sistemas, Ingeniería Electrónica, o afín.
    • Cursando último año de la Carrera profesional
  • Conocimientos Específicos / Requisitos Técnicos:
  • Linux Intermedio
    • Administración de servidores Linux (instalación, configuración y troubleshooting).
    • Gestión de discos, networking de Linux (bonding en servidores baremetal), Bash scripting.
  • Networking. Nivel Intermedio
    • Configuración de IP/VLANs, enrutamiento, netplan, validación de conectividad.
  • Docker Básico.
    • Experiencia para levantar y desplegar contenedores
  • Ansible nivel básico - intermedio.
    • Construcción y mantenimiento de playbooks.
    • Configuración simultánea de servidores, switches u otros equipos de red.
  • Docker básico
    • Experiencia para levantar y desplegar contenedores
  • Git básico
    • Manejo de repositorios: clone, push, pull, commit
  • Python
    • Scripting para automatización de tareas en entornos linux
  • Inglés:
    • Inglés Escrito avanzado (para leer/escribir documentación técnica)
    • Inglés Hablado básico (funcional, técnico)

Deseable (no fundamental)

  • Experiencia en operadores Telco o proveedores de tecnología en entornos productivos de misión crítica.
  • Certificación CCNA o equivalente.
  • Interacción con APIs via Python
  • Automatización y validación usando librerías de Python para servidores y equipos de red (Paramiko, Fabric, Salt, Netmiko, NAPALM)
  • Experiencia utilizando roles/handler en Ansible

Beneficios

Somos una empresa innovadora con una metodología de trabajo flexible y tecnologías de vanguardia, con oportunidades de crecimiento y liderazgo. Beneficios incluyen:
  • Participar en una startup tecnológica con reputación global.
  • Ambiente orientado a objetivos y entrega a tiempo.
  • Trabajo remoto con horarios flexibles (aplicación actual por Covid).
  • Gran aprendizaje en Cloud y tecnologías open-source.
  • Buen balance vida/trabajo.
  • 15 días de vacaciones como mínimo al año, según país.
  • Beneficios alineados a nuestros pilares Familia & Vida Personal, Crecimiento Personal, Salud & Seguridad y Pertenencia y Recreación.
  • Click para ver más beneficios: Working at Whitestack.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Commuting buses Whitestack provides free commuting buses from and to the offices.
Health coverage Whitestack pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer provided Whitestack provides a computer for your work.
Education stipend Whitestack covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
$$$ Full time
Linux Virtualization Kubernetes ITIL

Whitestack despliega nubes privadas en distintas capitales de Latinoamérica. En cada uno de estos sitios opera decenas o incluso cientos de servidores, interconectados mediante redes de alta velocidad y diseñados para soportar aplicaciones de misión crítica incluyendo el tráfico de voz de operadores móviles, lo que exige niveles de disponibilidad cercanos al 99,999%.

Por esta razón estamos buscando a los mejores ingenieros para su área de Cloud Support. El Cloud NOC Engineer es el guardián de esta infraestructura. Su misión es el monitoreo proactivo 24/7 de la salud de los centros de datos, detectando anomalías antes de que afecten el servicio. Es el primer frente de respuesta, encargado de la gestión integral de incidentes: desde la detección y apertura de tickets hasta la resolución de fallas de complejidad baja/media y el escalamiento técnico estructurado hacia los niveles L1/L2.

Horarios:
México, Colombia, Perú desde la 1PM.
Argentina, Chile, Uruguay desde las 8AM.

Job opportunity published on getonbrd.com.

Responsabilidades

  • Monitoreo Proactivo: Vigilancia constante de dashboards y alertas (infraestructura física, virtual y servicios) para garantizar la disponibilidad del 99,999%.
  • Gestión de Incidentes (Triage): Recepción, categorización y priorización de alertas. Apertura y seguimiento riguroso de tickets bajo metodologías ITIL.
  • Resolución Técnica Inicial: Diagnóstico y resolución de fallas de complejidad baja y media (ej. reinicio de servicios, limpieza de logs, ajustes de cuotas, verificación de conectividad básica).
  • Escalamiento Estructurado: Cuando la complejidad supera el nivel inicial, escalar a L1/L2 entregando un reporte técnico completo (logs, trazas de red, pasos de reproducción y contexto del cliente).
  • Documentación de Casos: Mantener actualizada la bitácora de eventos y la base de conocimientos (KB) sobre incidentes recurrentes.
  • Comunicación Externa: Notificar a los clientes sobre estados de salud, ventanas de mantenimiento e incidentes en curso de forma clara y oportuna.
  • Health Checks: Ejecución de rutinas periódicas de validación de salud en plataformas productivas.
  • Velar por el cumplimiento de SLA de incidencias y disponibilidad de red y servicios
  • Generación y análisis de reportes de disponibilidad de las plataformas

Requerimientos

  • Experiencia:
    • Al menos 1-2 años en centros de monitoreo (NOC), soporte técnico de primer nivel o administración de sistemas.
    • Experiencia en manejo de tickets y procesos de soporte (Jira, ServiceNow u otros), incluyendo documentación clara de diagnóstico, evidencias y comunicación.
    • Experiencia en manejo de herramientas de Monitoreo/Observabilidad como Prometheus, Grafana, Elasticsearch, Opensearch, OpenNMS. Lectura e interpretación de métricas, eventos, logs, alarmas.
    • Experiencia en sistemas productivos de misión crítica, incluyendo gestión de incidentes, coordinación de acciones en producción, escalamiento y comunicación efectiva.
  • Conocimientos Específicos / Requisitos Técnicos:
    • Linux en entornos productivos: troubleshooting de servicios y sistema operativo (systemd, journalctl), permisos/usuarios, procesos, filesystem y redes.
    • Networking en Linux: configuración y diagnóstico de interfaces, VLANs, rutas, bonding y MTU; troubleshooting con herramientas como tcpdump (sniffing), ip, ss, ethtool, ping/traceroute
    • Kubernetes: operación/administración y troubleshooting en producción (Pods, Deployments/DaemonSets, Services, eventos/logs, readiness/liveness; nociones de storage PV/PVC).
    • Virtualización: experiencia operando y dando soporte a entornos virtualizados (KVM/VMware/Hyper-V u otros), incluyendo diagnóstico de fallas comunes de cómputo, red y almacenamiento.
    • Automatización: capacidad para resolver tareas repetibles mediante Bash y Ansible y/o Python (recolección de información, checks operativos, remediación básica, scripts seguros para producción).
    • Inglés intermedio para leer/escribir documentación técnica, realizar actualizaciones a stakeholders e interactuar con proveedores/fabricantes ante casos de soporte.
  • Requisitos Profesionales
    • Autonomía (para lograr los mejores resultados)
    • Adherencia a estándares de clase mundial
    • Orientación al objetivo.
    • Apertura de aprender nuevas tecnologías
    • Pensamiento analítico
    • Trabajo en equipo (para coordinar con equipos de desarrollo y despliegue de productos)
    • Rápida adaptación a un entorno altamente dinámico
  • Formación:
    • Ingeniería Informática, Ingeniería de Sistemas, Ingeniería Electrónica, o afín.

Requisitos Deseables Técnicos

  • Experiencia en OpenStack (operación, troubleshooting o administración) y/o KVM
  • Conocimientos del modelo de operación de una red Fija o Móvil.
  • Experiencia integrando y operando proyectos de código abierto en ambientes productivos.
  • Networking intermedio: BGP, EVPN-VXLAN, etc.
  • Certificaciones: Linux, OpenStack, Kubernetes Administrator (CKA u otras).
  • Cursos en Ansible y/o Bash scripting.
  • Conocimientos en ITIL (Gestión de Incidentes, Requerimientos, Problemas, Cambios) y/o Scrum.

¿Por qué unirte a Whitestack?

🌎 Proyección internacional: Participa en iniciativas globales y viaja para colaborar con equipos en distintos países.
⚖️ Equilibrio real: Diseñamos políticas que se ajustan a tu estilo de vida y te permiten trabajar con autonomía y propósito.
📈 Crecimiento claro: Te ofrecemos una línea de carrera sólida en liderazgo y tecnología.
Salud primero: Seguro médico privado para ti y tu familia.
📚 Aprendizaje sin límites: Acceso a cursos, libros, materiales y reembolso de certificaciones.
🌐 Idiomas para el mundo: Cursos de idiomas.
💻 Tecnología en tus manos: Renovamos tu equipo cada 3 años... ¡y es tuyo al finalizar el período!
🏆 Reconocimiento al esfuerzo: Bonos por rendimiento y éxito en proyectos.
🎉 Tiempo para ti: 15 días de vacaciones mínimo, día libre por tu cumpleaños y descansos extra (Fiestas Patrias, Navidad y Año Nuevo)
🤝 Conexión y diversión: Presupuesto para actividades recreativas e integración.
💡 Cultura de innovación: Tus ideas importan. Promovemos la participación.

$$$ Full time
Python SQL Databricks Ticketing tools
Objetivo del cargo
Asegurar la continuidad operativa del servicio 24x7 mediante monitoreo de procesos, atención de incidentes, revisión de ejecuciones, análisis básico de errores, apoyo en reprocesos, validación de datos, documentación operativa y escalamiento oportuno en entornos Azure y Databricks.

Applications are only received at getonbrd.com.

Funciones

  • Monitorear jobs, procesos y componentes críticos del servicio Revisar alertas, errores y ejecuciones en Databricks y flujos asociados
  • Atender y dar seguimiento a incidentes productivos
  • Apoyar el análisis de fallas operativas y troubleshooting de primer nivel
  • Ejecutar o apoyar reprocesos controlados según procedimiento
  • Validar cargas, ejecuciones y consistencia básica de datos
  • Detectar anomalías o comportamientos inusuales en los procesos monitoreados
  • Documentar incidentes, traspasos y acciones realizadas
  • Escalar oportunamente a equipos internos o cliente cuando corresponda
  • Participar en reuniones operativas y apoyar la continuidad del servicio
  • Cumplir con los SLA definidos para el servicio

Experiencia

2 a 3 años de experiencia

Idealmente experiencia en monitoreo, soporte TI, operaciones de datos, data ops o soporte productivo

Conocimientos excluyentes
  • Experiencia o conocimientos prácticos en Databricks
  • SQL intermedio
  • Python o PySpark básico/intermedio
  • Seguimiento de jobs, ejecuciones y revisión básica de logs
  • Manejo de Jira o herramientas similares de ticketing
  • Conocimientos básicos de documentación operativa
  • Criterio para escalamiento y seguimiento de incidentes
  • Disponibilidad para trabajo en turnos rotativos 24x7
Habilidades blandas
  • Orden
  • Responsabilidad
  • Buena comunicación
  • Capacidad de análisis
  • Manejo de presión
  • Trabajo en equipo
  • Capacidad de aprendizaje
  • Criterio para escalar sin improvisar

Conocimientos deseables

  • Azure Data Factory
  • Confluence
  • Nociones de Azure Portal
  • Revisión de errores y troubleshooting básico
  • Grafana, Dynatrace u otras herramientas de observabilidad
  • SQL Server o bases de datos relacionales
  • Conocimientos básicos de líneas de comando Windows o Linux
  • Conocimientos generales de Azure
  • Nociones de microservicios, Kafka, CosmosDB o procesos Real Time
  • Inglés técnico básico/intermedio
Modalidad: 100% remoto
Disponibilidad: turnos rotativos 24x7 + pago de horas extras
Residencia: Perú (Preferentemente Lima)

$$$ Full time
Ingeniero DevOps
  • Factor IT
  • Santiago (Hybrid)
Git Docker Kubernetes Google Cloud Platform
En Factor IT, lideramos proyectos de Data & Analytics, Transformación Digital e IA para grandes empresas con presencia regional en 8 países. Trabajamos con equipos multidisciplinarios para convertir necesidades de negocio en soluciones tecnológicas que aportan valor real. En este rol, te integrarás a un entorno enfocado en la automatización, la excelencia operativa y el diseño de plataformas robustas en la nube, con impacto directo en iniciativas del sector financiero y en la transformación tecnológica de la región.

Apply exclusively at getonbrd.com.

Funciones

  • Implementar y mantener infraestructura y servicios en Google Cloud Platform (GCP) con foco en escalabilidad y seguridad.
  • Desarrollar y optimizar pipelines de CI/CD usando GitLab y/o Bitbucket Pipelines.
  • Construir y gestionar infraestructura como código (IaC) con Terraform.
  • Administrar despliegues y operación de contenedores con Docker y orquestación con Kubernetes (GKE).
  • Aplicar buenas prácticas de control de versiones con Git, utilizando un flujo tipo Gitflow y estrategias de branching.
  • Trabajar con componentes de GCP como IAM y Google Operations Suite para monitoreo, trazabilidad y continuidad operativa.
  • Apoyar la estandarización de prácticas DevOps para mejorar velocidad de entrega, confiabilidad y tiempos de recuperación.

Descripción

Buscamos un/a Ingeniero/a DevOps con experiencia sólida en GCP y con capacidad para llevar soluciones de infraestructura y automatización desde el diseño hasta la operación.
Entre los requisitos excluyentes, necesitamos que tengas:
  • GCP avanzado: GKE, IAM y Google Operations Suite.
  • CI/CD: GitLab y/o Bitbucket Pipelines.
  • Terraform (IaC) para aprovisionamiento y gestión declarativa.
  • Contenedores y orquestación: Docker y Kubernetes.
  • Git con prácticas de Gitflow y branching.
Valoramos además conocimiento de redes (VPC, Load Balancer y NAT) para construir y operar soluciones con buen desempeño y resiliencia.
Como parte de Factor IT, creemos en la colaboración, el aprendizaje continuo y el entendimiento del negocio. Por eso buscamos personas proactivas, orientadas a la mejora continua, con mentalidad de automatización y que puedan comunicarse de forma clara con equipos técnicos y no técnicos.
Tu experiencia puede complementarse con lenguajes como Python, Go o Java, y con habilidades para integrar integraciones y componentes de infraestructura y plataformas.

Deseable

  • Lenguajes: Python, Go o Java.
  • Redes: VPC, Load Balancer (LB) y NAT.
Estos conocimientos suman para que puedas diseñar y mejorar servicios cloud con mayor eficiencia, alineando infraestructura, seguridad y desempeño.

Beneficios

  • Modalidad de trabajo híbrida desde Santiago, Chile, con flexibilidad horaria para balance vida profesional y personal.
  • Ambiente colaborativo, dinámico y con tecnologías de última generación para crecimiento profesional constante e innovación.
  • Paquete salarial competitivo acorde a experiencia y perfil.
  • Proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero.

$$$ Full time
Platform/ DevOps Engineer
  • Improving South America
Python Go Kubernetes CI/CD
En Improving South America, brindamos servicios de TI para transformar la percepción del profesional de TI. Nos enfocamos en consultoría de TI, desarrollo de software y formación ágil.
La empresa promueve una cultura de trabajo excepcional basada en el trabajo en equipo, la excelencia y la diversión, con enfoque en crecimiento personal y recompensas compartidas. Al integrarse, el/la candidato/a formará parte de una comunidad que prioriza la comunicación abierta y relaciones laborales sólidas a largo plazo, respaldada por una estructura de desarrollo profesional y aprendizaje continuo.

Apply to this job through Get on Board.

Responsabilidades del puesto

Buscamos Senior Platform / DevOps Engineer para liderar la evolución de una plataforma hacia una arquitectura cell-based (distributed, multi-region), con foco en escalabilidad, resiliencia y aislamiento.

El rol es altamente técnico y está orientado a diseñar e implementar infraestructura moderna basada en Kubernetes, IaC y sistemas distribuidos.

Responsabilidades:

  • Diseñar y operar arquitectura cell-based (shared-nothing, aislamiento por célula)
  • Implementar infraestructura como código (Terraform / Pulumi) para entornos multi-región
  • Gestionar Kubernetes en entornos multi-cluster / multi-region
  • Diseñar soluciones de routing y traffic steering entre células
  • Evolucionar pipelines CI/CD hacia despliegues progresivos (canary, multi-cell)
  • Implementar estrategias de aislamiento y mitigación de fallos (blast radius)
  • Construir soluciones de observabilidad (incluyendo métricas de performance en tiempo real)
  • Automatizar lifecycle de infraestructura con Python o Go

Requerimientos indispensables

  • 7+ años de experiencia en DevOps / Platform Engineering
  • Experiencia avanzada en Kubernetes (multi-cluster / multi-region)
  • Experiencia sólida en Infrastructure as Code (Terraform, Pulumi o CloudFormation)
  • Conocimiento profundo de arquitecturas distribuidas (sharding, bulkhead, shared-nothing)
  • Experiencia en networking (VPC, peering, load balancing L4/L7)
  • Experiencia en automatización con Python o Go
  • Experiencia trabajando con sistemas en producción a escala
  • Inglés intermedio/avanzado (obligatorio)

Plus relevante

  • Experiencia con protocolos de voz (SIP, WebRTC, RTP)
  • Experiencia con service mesh (Istio, Linkerd)
  • Experiencia en chaos engineering
  • Conocimiento de database sharding
  • Experiencia en entornos con compliance (SOC2, HIPAA)

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Python Linux Virtualization Kubernetes

El Support Engineer asegura el cumplimiento de los SLA atendiendo requerimientos e incidencias en proyectos de Latam, brindando soporte de primer y segundo nivel en configuración y resolución de problemas técnicos, además de realizar pruebas y laboratorios de troubleshooting en servidores y redes.

Whitestack despliega nubes privadas en capitales latinoamericanas con infraestructuras críticas de alta disponibilidad (99.999%), que soportan servicios como tráfico de voz de operadores móviles.

Por ello, buscamos ingenieros DevOps especializados en Cloud Support/Site Reliability, clave para garantizar la continuidad y estabilidad de estos centros de datos de misión crítica.

Este rol está disponible para trabajo remoto desde las siguientes ubicaciones: México, Chile, Argentina, Colombia, Uruguay y Perú, con disponibilidad para trabajar en la zona horaria UTC-3.

Job opportunity published on getonbrd.com.

Responsabilidades

  • Brindar soporte técnico de Nivel 1 para las plataformas y servicios productivos.
  • Gestión de incidencias de acuerdo a los protocolos establecidos y realizando el escalamiento que corresponda.
  • Prestar comunicación eficiente y efectiva al cliente.
  • Documentación de los soportes realizados, tanto en tickets como en las plataformas dispuestas.
  • Gestionar actividades que sea necesario ejecutar sobre ambientes de producción, coordinando las actividades, tanto de manera interna como con cliente, para su debida intervención.
  • Generar laboratorios de pruebas y troubleshooting a nivel de servidores y networking.
  • Realizar periódicamente chequeos de salud de las plataformas que soportamos para validar que estén operando de manera correcta.
  • Tener disponibilidad para realizar tareas de soporte fuera de horario hábil, en actividades programadas con clientes, de mantenimiento, despliegues, u otras.
  • Tener disponibilidad para participar de sistema de turnos on call fuera de horario hábil para soporte en un esquema de rotación.

Requerimientos

  • Experiencia:
    • Al menos 2 años de experiencia como Ingeniero/a de Soporte Cloud, SRE o rol equivalente en operación y soporte de infraestructura.
    • Experiencia en manejo de tickets y procesos de soporte (Jira, ServiceNow u otros), incluyendo documentación clara de diagnóstico, evidencias y comunicación.
  • Formación:
    • Ingeniería Informática, Ingeniería de Sistemas, Ingeniería Electrónica, o afín.
  • Conocimientos Específicos / Requisitos Técnicos:
    • Linux avanzado en entornos productivos: troubleshooting de servicios y sistema operativo (systemd, journalctl), permisos/usuarios, procesos, filesystem y redes.
    • Networking en Linux: configuración y diagnóstico de interfaces, VLANs, rutas, bonding y MTU; troubleshooting con herramientas como tcpdump (sniffing), ip, ss, ethtool, ping/traceroute
    • Virtualización: experiencia operando y dando soporte a entornos virtualizados (KVM/VMware/Hyper-V u otros), incluyendo diagnóstico de fallas comunes de compute, red y almacenamiento.
    • Kubernetes: operación/administración y troubleshooting en producción (Pods, Deployments/DaemonSets, Services, eventos/logs, readiness/liveness; nociones de storage PV/PVC).
    • Experiencia en sistemas productivos de misión crítica, incluyendo gestión de incidentes, coordinación de acciones en producción, escalamiento y comunicación efectiva.
    • Automatización: capacidad para resolver tareas repetibles mediante Bash y Ansible y/o Python (recolección de información, checks operativos, remediación básica, scripts seguros para producción).
  • Inglés intermedio para leer/escribir documentación técnica, realizar actualizaciones a stakeholders e interactuar con proveedores/fabricantes ante casos de soporte.

Requerimientos Profesionales:

  • Autonomía (para lograr los mejores resultados)
  • Adherencia a estándares de clase mundial
  • Orientación al objetivo.
  • Apertura de aprender nuevas tecnologías
  • Pensamiento analítico
  • Trabajo en equipo (para coordinar con equipos de desarrollo y despliegue de productos)
  • Rápida adaptación a un entorno altamente dinámico

¿Por qué unirte a Whitestack?

Somos una empresa altamente innovadora, que ofrece una metodología de trabajo flexible, con tecnologías altamente innovadoras, y con todos los beneficios de unirse a una empresa joven con altas expectativas de crecimiento (con una amplia línea de carrera en liderazgo y tecnología)

  • Participarás de una exitosa startup tecnológica latinoamericana, con reputación global en nuevas tecnologías.
  • Ambientes orientado al objetivo, donde nos encanta entregar a tiempo.
  • Trabajo con horarios flexibles, completamente remoto
  • Aprender mucho del mundo Cloud!
  • Usar tecnologías y frameworks open-source
  • Buen balance vida/trabajo
  • 15 días de vacaciones como mínimo al año o más, según tu país.
  • Otros beneficios acordes a nuestros 4 pilares: Familia & Vida Personal, Crecimiento Personal, Salud & Seguridad y Pertenencia y Recreación.

Si quieres saber sobre algunos de nuestros beneficios, puedes dar click aquí: Working at Whitestack

Gross salary $3000 - 4000 Full time
Python Agile Git Linux

Insight Global represents a broad network of talent partners and client engagements, delivering mission-critical IT solutions across industries. In this engagement, our client seeks a QA Automation Engineer to join the client’s ecommerce applications team. You will focus on testing efforts for full stack web and mobile applications, supporting and enhancing the automation environment, and coordinating testing activities within an Agile framework. The role emphasizes API testing, automation framework improvements, and ensuring robust quality across web and mobile experiences. Collaboration across cross-functional teams will be key to delivering reliable automation coverage and process improvements in a fast-paced, distributed environment.

Originally published on getonbrd.com.

Responsibilities

  • Implement and maintain automated test scripts and frameworks for web and mobile applications, focusing on API and UI layers using TypeScript.
  • Enhance and refactor the existing automation framework to support new functionality and improve test stability and performance.
  • Collaborate with the Agile team to plan, design, and execute automated tests aligned with product goals and release schedules.
  • Identify, document, and track defects related to API and frontend testing; work with developers to reproduce and resolve issues quickly.
  • Integrate automated tests into CI/CD pipelines (Git/GitLab) and ensure reliable test execution in the build process.
  • Coordinate testing activities across sprints, maintain test data, and provide clear test status updates to stakeholders.
  • Maintain strong knowledge of testing best practices, contribute to process improvements, and mentor junior teammates as needed.

What you’ll bring

We are looking for a QA Automation Engineer with 5+ years of hands-on experience in QA automation or SDET roles. You should have strong TypeScript expertise for automation and be proficient in API automation (not using Postman/Newman). Experience with Jira and Git/GitLab in CI/CD contexts is essential. Familiarity with Playwright, Agile/Scrum methodologies, and mobile testing (Appium) is highly valued. Linux skills and Python ability are considered a plus. You will work remotely as part of the client’s ecommerce applications team, testing full stack web and mobile applications, supporting and expanding the automation environment, and driving process improvements through automation. Strong collaboration, analytical thinking, and a proactive approach to defect management and quality improvements are essential.

Nice-to-haves

Pluses include Linux proficiency, Python scripting, and Appium experience for mobile automation.

Benefits

Our program emphasizes empowering people to grow professionally and financially. While specific benefits are determined by the client engagement, we offer competitive compensation, opportunities for career advancement, and a collaborative, globally distributed team environment. If you’re passionate about building robust automation and delivering high-quality software, we want to hear from you.

Gross salary $2100 - 2800 Full time
Python MySQL PostgreSQL REST API
Coderslab.io es una empresa que ayuda a las organizaciones a transformarse y crecer mediante soluciones tecnológicas innovadoras. Formarás parte de un grupo de más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Trabajarás dentro de equipos diversos que cuentan con talento de primer nivel y participarás en proyectos innovadores y desafiantes que impulsarán tu desarrollo profesional. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno colaborativo y orientado a resultados.

Find this vacancy on Get on Board.

Funciones del cargo

Diseño y Desarrollo de Automatización
- Diseñar y mantener frameworks de automatización end-to-end para aplicaciones web,
móviles y APIs usando Robot Framework, Appium y Python.
- Automatizar pruebas de servicios REST y GraphQL, integrando validaciones con bases de
datos relacionales y NoSQL (MySQL, PostgreSQL, DynamoDB).
- Desarrollar flujos inteligentes de ejecución y reporting automatizado (Allure, BrowserStack
dashboards, Grafana).
- Diseñar y ejecutar pruebas cross-browser y cross-device utilizando BrowserStack,
incluyendo BrowserStack Automate para automatización y App Live para validación
manual en dispositivos reales.
Integración Cloud y DevOps
- Integrar la automatización con servicios AWS como Lambda, API Gateway, CloudWatch y
DynamoDB para crear flujos de ejecución serverless y monitoreo inteligente.
- Diseñar workflows CI/CD con GitHub Actions u otras herramientas para ejecución
distribuida de pruebas (web y mobile) en BrowserStack o entornos propios en la nube,
usando servicios de encriptamiento como Secret Manager.
- Asegurar la trazabilidad y estabilidad de los entornos de prueba en la nube.
Gestión y Colaboración Multiequipo
- Organizar el trabajo y prioridades para dar soporte a múltiples squads simultáneamente.
- Colaborar estrechamente con equipos de desarrollo, producto y DevOps para garantizar
entregas con calidad integrada.
- Documentar estrategias, métricas y decisiones técnicas en Confluence y gestionar
iniciativas en Jira.
Liderazgo Técnico y Mentoring
- Guiar al equipo de automatización en prácticas modernas de desarrollo y testing.
- Fomentar una cultura de aprendizaje continuo y excelencia técnica.
- Apoyar la capacitación y onboarding de nuevos miembros en herramientas y procesos de
automatización

Requerimientos del cargo

- +5 años de experiencia comprobable en QA Automation o SDTE.
- Sólida experiencia con algún framework de automatización (preferiblemente Robot
Framework o PyTest), Appium (Android/iOS) y Python.
- Conocimiento en diseño y ejecución de pruebas de API REST y GraphQL.
- Experiencia en bases de datos relacionales/no relacionales (MySQL, PostgreSQL,
DynamoDB).
- Experiencia con CI/CD pipelines (preferiblemente GitHub Actions).
- Conocimientos prácticos en AWS (Lambda, API Gateway, CloudWatch, DynamoDB).
- Experiencia utilizando BrowserStack para testing web y mobile, incluyendo BrowserStack
Automate para pruebas automatizadas y App Live para validación manual en dispositivos
reales.
- Capacidad comprobada para gestionar múltiples equipos o proyectos simultáneamente.
- Fuertes habilidades de comunicación, organización y liderazgo técnico.
- Enfoque en resultados, mejora continua y autonomía operativa.

Deseable

- Experiencia en observabilidad de testing y monitoreo de ejecuciones automatizadas.
- Conocimiento en Infraestructura como código (IaC) para configuración de entornos en
AWS.
- Experiencia construyendo plataformas de Testing as a Service (TaaS) o frameworks
compartidos.
- Experiencia aplicando Machine Learning o IA al testing, por ejemplo:
- Priorización inteligente de pruebas.
- Análisis predictivo de defectos.
- Identificación de patrones de fallos o flaky tests.
- Experiencia con herramientas o librerías de Data Science o ML (scikit-learn, TensorFlow,
Pandas, AWS SageMaker).
- Conocimiento de CloudWatch Metrics, AWS X-Ray o Grafana para correlacionar métricas
- de infraestructura con resultados de pruebas.
- Experiencia en identificación temprana de cuellos de botella y colaboración con equipos
DevOps para optimizar el rendimiento

Conditions

Fully remote You can work from anywhere in the world.
Gross salary $1800 - 3000 Full time
Ingeniero Linux Laboratorio
  • Whitestack
  • Santiago (In-office)
Automation Firewall Networking Monitoring
Somos una startup latinoamericana (Miami, Santiago, Bogotá y Lima, próximamente en Buenos Aires, Montevideo, Ciudad de México), formada por ex ejecutivos de Google y Cisco, dedicada a traer a las mejores soluciones de Cloud Computing, y adaptarlas al mercado latinoamericano (un mercado GIGANTE, de unos 20.000 millones de dólares, al año).
La piedra angular de nuestra tecnología es la plataforma Openstack (desarrollada por la NASA, y que se usa en datacenters de todo el mundo).
Como buena startup, somos relajados en el estilo de trabajo, pero muy comprometidos con alcanzar nuestros objetivos con alto nivel de excelencia. Queremos ser los líderes a nivel regional en esta nueva tendencia de la industria, y estamos dando pasos importantes esa dirección.
Nuestro equipo tiene a ejecutivos altamente reconocidos en la industria, participando en negocios importante, y coders nativos (sabemos desde Assembler, hasta REACT) con mucha experiencia.

Apply exclusively at getonbrd.com.

Funciones del cargo

  • Asegurar la operación continua del laboratorio e infraestructura interna, monitoreando la plataforma de manera activa.
  • Atender solicitudes de cableados e instalaciones de nuevo equipamiento.
  • Resolver problemas de infraestructura de hardware y software del laboratorio.
  • Asegurar la conectividad de la oficina del laboratorio y resolver problemas en la red cableada o inalámbrica.
  • Mantener actualizada la documentación de la topología y estado del laboratorio.
  • Mantener el inventario de activos de laboratorio e infraestructura interna al dia
  • Gestionar la creación de accesos según sea pertinente a infraestructura interna y del laboratorio.
  • Monitoreo de las plataformas internas y externas que se le encomienden
  • Gestión de sistemas de protección de endpoint y seguridad perimetral internos.
  • Monitorear las capacidades de uso del laboratorio y su consumo de energía alineado a buenas prácticas.
  • Automatizar algunas labores, mediante el uso de scripts.

Requerimientos del cargo

Experiencia técnica probada en:

  • Infraestructura de centros de datos (energía, bastidores, servidores y switches)
  • Instalación de Servidores.
  • Instalación de módulos de control eléctrico remoto.
  • Administración de ambientes de pruebas
  • Scripting (Shell o Python)
  • Networking en Switches y Routers (VLANs y enrutamiento)
  • Administración de Linux enfocada a networking
  • Experiencia práctica en fibra óptica.
  • Seguridad perimetral (firewalls físicos/virtuales)
  • Monitoreo de Laboratorio (Temp, Consumo, Conectividad, Salud, etc)

Opcionales

  • Arquitecturas de centros de datos (Spine/Leaf, CLOS)
  • Networking avanzado de centros de datos (VXLAN, EVPN)
  • Virtualización en KVM y/o OpenStack
  • Operación de contenedores Docker y/o Kubernetes
  • Automatización (con herramientas estilo Ansible).

Condiciones

Somos una empresa altamente innovadora, que ofrece una metodología de trabajo flexible, con tecnologías altamente innovadoras, y con todos los beneficios de unirse a una empresa joven con altas expectativas de crecimiento (con una amplia línea de carrera en liderazgo y tecnología)
  • Participarás de una exitosa startup tecnológica latinoamericana, con reputación global en nuevas tecnologías.
  • Ambientes orientado al objetivo, donde nos encanta entregar a tiempo.
  • Trabajo con horarios flexibles, en este momento (por Covid) completamente remoto
  • Aprender mucho del mundo Cloud!
  • Usar tecnologías y frameworks open-source
  • Buen balance vida/trabajo
  • 15 días de vacaciones como mínimo al año o más, según tu país.
  • Otros beneficios acordes a nuestros 4 pilares: Familia & Vida Personal, Crecimiento Personal, Salud & Seguridad y Pertenencia y Recreación.
Si quieres saber sobre algunos de nuestros beneficios, puedes dar click aquí: Working at Whitestack

Wellness program Whitestack offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Whitestack offers space for internal talks or presentations during working hours.
Life insurance Whitestack pays or copays life insurance for employees.
Meals provided Whitestack provides free lunch and/or other kinds of meals.
Digital library Access to digital books or subscriptions.
Health coverage Whitestack pays or copays health insurance for employees.
Dental insurance Whitestack pays or copays dental insurance for employees.
Computer provided Whitestack provides a computer for your work.
Education stipend Whitestack covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Whitestack covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Whitestack gives you paid vacations over the legal minimum.
Beverages and snacks Whitestack offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $4000 - 6000 Full time
Git REST API Node.js GraphQL
We’re hiring an QA Automation Engineer through Insight Global to join a client's QA team responsible for quality testing of a product that sits between a Point of Sale (POS) system and a back-end ecommerce platform. In this role, we’ll help ensure the API and UI experiences work reliably across integrations, releases, and feature updates. You’ll support and enhance the existing automation environment, validate functionality for API-related testing, and collaborate with an Agile team to coordinate testing efforts.
Insight Global (and our Evergreen brand) brings technical advisors and culture consultants to help customers tackle their biggest challenges, backed by global staffing capabilities across 50+ countries.

Exclusive offer from getonbrd.com.

Responsibilities:

We’re looking for an QA Automation Engineer to sit remotely and be part of the client’s QA team, focused on testing efforts for a product that sits between their POS system and back-end ecommerce platform.
  • Support and enhance the automation environment and utilize the current framework to ensure optimal functionality for all API-related testing.
  • Enhance the automation framework for new and existing functionality.
  • Coordinate testing activities as part of the Agile team.
  • Identify and record defects related to the API/ UIaspects for the web applications.
  • Optimize the testing environment as needed for process improvement.

Requirements

We need an experienced QA Automation Engineer with strong hands-on automation and API/UI testing background.
  • 5+ years of experience in QA test automation.
  • Strong Node.js and TypeScript experience for automation.
  • Well-versed in UI and API testing.
  • Experience with GraphQL and REST API testing efforts.
  • Playwright experience.
  • Jira and Git/GitLab experience as it relates to CI/CD.
Plus:
  • Python skills.
  • Mobile testing experience.
We’re also looking for a teammate who can work effectively within an Agile environment, maintain quality standards, and communicate clearly about defects, test coverage, and automation framework improvements.

Pluses

  • Python experience.
  • Experience with mobile testing.

Benefits

Our program emphasizes empowering people to grow professionally and financially. While specific benefits are determined by the client engagement, we offer competitive compensation, opportunities for career advancement, and a collaborative, globally distributed team environment. You’ll also have the flexibility of working remotely as part of the client’s QA team. This role is with a US based, Fortune 100 company with extensive growth opportunities long term!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Insight Global pays or copays health insurance for employees.
Computer provided Insight Global provides a computer for your work.
$$$ Full time
Python Node.js NoSQL React

SONDA es una empresa líder en transformación digital en Latinoamérica, comprometida con el desarrollo tecnológico y social en las comunidades donde opera. Nuestra misión es mejorar la calidad de vida de las personas mediante la innovación y soluciones tecnológicas que transforman negocios y procesos. Actualmente, buscamos un Desarrollador Full Stack para integrarse al proyecto Fonasa, donde se desarrollan aplicaciones orientadas a optimizar y modernizar sistemas y procesos de información en el sector público, aportando valor al cliente final mediante tecnología de punta y trabajo colaborativo.

Applications at getonbrd.com.

Responsabilidades y funciones principales

  • Desarrollar aplicaciones siguiendo los diseños técnicos y funcionales definidos.
  • Generar soluciones innovadoras y efectivas frente a los problemas técnicos o de negocio detectados.
  • Realizar la mantención y mejora continua de aplicaciones existentes para asegurar su operatividad y calidad.
  • Analizar los requisitos del sistema y procesos de negocio existentes para identificar oportunidades de mejora y asegurar la alineación con las necesidades del cliente.
  • Diseñar y construir pruebas unitarias robustas que garanticen la calidad de las soluciones desarrolladas.
  • Contribuir activamente a la elaboración técnica global de las soluciones, colaborando con los equipos multidisciplinarios.

Perfil requerido y conocimientos técnicos

  • Buscamos un profesional con título en Ingeniería en Informática, Sistemas o carreras afines, quien cuente con un mínimo de 2 años de experiencia directa en roles similares de desarrollo Full Stack y al menos 5 años en el ámbito tecnológico, demostrando un sólido conocimiento del ciclo completo de desarrollo de software.
  • Es fundamental poseer habilidades técnicas en frontend, con experiencia en HTML, CSS, JavaScript y el manejo de frameworks o librerías populares como React o Angular. En el backend, se requiere conocimiento en programación con lenguajes como Node.js, Python y frameworks asociados como FastAPI, Express, Django o Rails.
  • Además, debe contar con experiencia en la gestión y manejo de bases de datos tanto relacionales (MySQL, PostgreSQL, Oracle DB) como NoSQL (MongoDB), para garantizar el adecuado almacenamiento y consulta de la información.
  • Se valorará el conocimiento en herramientas de integración y entrega continua (CI/CD), uso de contenedores como Docker, y experiencia con servicios en la nube, especialmente AWS, aportando a la modernización y automatización de los entornos de desarrollo y producción.
  • Además de las habilidades técnicas, buscamos una persona con capacidad analítica, orientación a la solución de problemas, y aptitudes para trabajar en equipo dentro de un ambiente colaborativo y diverso, siempre promoviendo la innovación y la mejora continua.

Conocimientos adicionales valorados

  • Es deseable contar con experiencia práctica en proyectos que impliquen despliegue en entornos cloud y microservicios, así como manejo avanzado en técnicas de testing automatizado e infraestructura como código.
  • Se valorará también la habilidad para adaptarse rápidamente a nuevas tecnologías y metodologías ágiles, junto a una fuerte orientación al cliente y comunicación efectiva con stakeholders técnicos y no técnicos.

Beneficios y cultura organizacional

  • En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.
  • Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.
  • Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.
  • El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.
  • Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.
  • Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

$$$ Full time
Software Engineer I
  • Wherex
  • Santiago (Hybrid)
JavaScript Python PHP Git

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

Apply directly on the original site at Get on Board.

Job functions

Desarrollador de software con fuerte interés en construir soluciones tecnológicas basadas en IA. Serás parte del equipo de Sourcing, participando en el desarrollo de nuevas funcionalidades, resolución de issues en producción y mejora continua del sistema.

Funciones principales:

  • Diseñar, desarrollar y mantener funcionalidades de la plataforma.
  • Atender y dar solución a incidencias operativas.
  • Colaborar en la revisión de código y decisiones técnicas.
  • Participar activamente en ceremonias ágiles y trabajo colaborativo.

Qualifications and requirements

Requisitos técnicos:

  • Titulo universitario de Ingeniero Civil en Informática, Ingeniero en Informática.
  • 1 a 2 años de experiencia en desarrollo de software (incluye prácticas profesionales de alta exigencia).
  • Experiencia práctica con al menos 2 de los siguientes lenguajes: PHP, Python, Go, JavaScript, React.
  • Conocimientos en bases de datos relacionales (PostgreSQL, MySQL) y no relacionales (MongoDB, Redis, etc.).
  • Manejo de control de versiones con Git.
  • Experiencia con contenedores Docker.
  • Conocimientos en metodologías ágiles (Scrum, Kanban).
  • Interés o experiencia en desarrollo asistido por Inteligencia Artificial (IA).

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

Gross salary $3000 - 4500 Full time
Staff Software Engineer
  • Checkr
  • Santiago (Hybrid)
Python PostgreSQL Git REST API

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de seleccionar a los solicitantes de empleo. Fundada en 2014, Checkr pone la tecnología moderna impulsada por el aprendizaje automático en manos de los equipos de contratación, ayudando a contratar a grandes nuevas personas con una experiencia que es rápida, suave y segura. Checkr tiene más de 100.000 clientes, entre ellos DoorDash, Coinbase, Lyft, Instacart y Airtable.

Como uno de los mayores proveedores de recursos de datos de antecedentes en los Estados Unidos, Checkr permite a las agencias de informes de los consumidores y a las empresas tomar decisiones bien informadas que protegen a sus organizaciones, empleados y clientes.

Opportunity published on Get on Board.

Responsabilidades del cargo

  • Dirigir el desarrollo del producto desde la ideación, el diseño y la implementación hasta el lanzamiento.
  • Colaborar con otros ingenieros y con el jefe de producto en el diseño y la arquitectura de nuevos sistemas.
  • Diseñar, desarrollar, probar, desplegar, mantener y mejorar el software
  • Gestionar las prioridades, los plazos y los resultados de cada proyecto.
  • Entregar código de alto rendimiento, fiable, escalable y seguro.

Calificaciones y Requisitos del cargo

  • Más de 10 años de experiencia en la industria como ingeniero de software, y experiencia significativa trabajando con Python
  • Capacidad de liderazgo, y una pasión por la tutoría de los ingenieros más jóvenes
  • Experiencia en la ejecución de rituales Scrum (planificación de sprints, standup diario, revisión de sprints y retrospectiva)
  • Experiencia práctica con AWS
  • Gran conocimiento de la infraestructura de arquitectura de microservicios, incluida la familiaridad con Kubernetes
  • Experiencia diseñando e implementando APIs REST
  • Experiencia con CI/CD
  • Experiencia trabajando con almacenes de datos como Postgres, MongoDB
  • Experiencia con Git, GitLab o Github y proceso de revisión PR/MR
  • Pasión por la optimización de servicios para escala y velocidad
  • Muchas ganas de aprender, colaborar, mejorar e innovar
  • Manejo de Ingles verbal a nivel avanzado

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Gross salary $2000 - 3000 Full time
JavaScript Python Vue.js Svelte
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Find this job and more on Get on Board.

Responsibilities

  • Collaborate as a Senior Full-Stack Engineer with a focus on Python and JavaScript to build scalable web applications.
  • Design, implement, and maintain robust backend services and responsive frontend components using modern frameworks.
  • Lead technical decisions, establish coding standards, and mentor junior teammates to promote a culture of technical excellence.
  • Ensure code quality through reviews, automated tests, and adherence to best practices for clean, maintainable architectures.
  • Architect and optimize APIs, data models, and system integrations to support high availability and performance.
  • Collaborate with cross-functional teams across time zones, translating requirements into practical solutions.
  • Contribute to continuous improvement initiatives, focusing on delivery speed, quality, and reliability.

What you bring

We are seeking a Senior Full-Stack Developer proficient in Python and JavaScript with strong engineering fundamentals and leadership abilities. You should have hands-on experience building scalable, production-grade applications, and a solid understanding of modern frontend frameworks (e.g., Vue.js and/or Svelte is a plus). You’ll thrive in a fast-paced, collaborative environment and be comfortable mentoring peers while driving technical excellence and delivery focus.
Key skills include: clean code practices, scalable architecture, test-driven development, and a proactive, autonomous mindset. Excellent communication and teamwork are essential as you collaborate with global teams to deliver high-impact projects.

Nice-to-have

Experience with Vue.js and/or Svelte frameworks, strong leadership and mentorship capabilities, track record of delivering complex projects on time, and familiarity with industrial data projects. Fluency in English and ability to collaborate effectively with international teams.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
Gross salary $2800 - 3000 Full time
Python REST API Node.js React

Coderslab.io es una empresa global líder en soluciones tecnológicas con más de 3,000 colaboradores en todo el mundo, incluyendo oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos compuestos por talento de alto desempeño para proyectos desafiantes de automatización y transformación digital. Colaborarás con profesionales experimentados y trabajarás con tecnologías de vanguardia para impulsar la toma de decisiones y la eficiencia operativa a nivel corporativo.

Apply from getonbrd.com.

Funciones del cargo

Buscamos un/a Desarrollador/a Full Stack con fuerte dominio en Python y experiencia en Node.js, para sumarse al equipo responsable de una de las plataformas más estratégicas de la compañía: la aplicación que utilizan la fuerza de ventas, jefaturas y otros perfiles comerciales para gestionar la relación con clientes.

Este equipo lidera la modernización de la operación comercial mediante una arquitectura serverless en AWS, con aplicaciones web y móviles desarrolladas en React y React Native.

El rol tendrá foco principal en backend, pero también participará en el desarrollo frontend, asegurando una integración fluida entre ambas capas.

🧩 Responsabilidades

  • Diseñar, desarrollar y mantener APIs y microservicios en AWS utilizando Python y Node.js.
  • Evolucionar la aplicación utilizada por la fuerza de ventas, garantizando rendimiento, seguridad y escalabilidad.
  • Integrar servicios AWS: Lambda, API Gateway, AppSync, DynamoDB, RDS, S3, Secrets Manager, CloudWatch y Cognito.
  • Desarrollar interfaces web y móviles en React / React Native, colaborando con el equipo de UX/UI.
  • Implementar y mantener APIs REST y GraphQL, optimizando la comunicación entre frontend y backend.
  • Aplicar buenas prácticas de testing automatizado (Pytest, Jest, Mocha).
  • Participar en code reviews, definición de estándares técnicos y documentación de desarrollos.
  • Colaborar con equipos de mobile, QA, datos e infraestructura para asegurar integraciones eficientes.
  • Contribuir a la automatización CI/CD mediante GitHub Actions u otras herramientas similares.

Requerimientos del cargo

+4 años de experiencia en desarrollo backend con Python (FastAPI, Flask u otro framework similar).

Experiencia en Node.js para microservicios y funciones Lambda.

Conocimientos sólidos de servicios AWS (API Gateway, Lambda, AppSync, Cognito, RDS, DynamoDB, S3, Secrets Manager).

Experiencia en desarrollo frontend con React y React Native.

Experiencia en consumo de APIs REST y GraphQL.

Conocimientos de testing automatizado, control de versiones (Git) y buenas prácticas de desarrollo.

Formación universitaria en Ingeniería en Computación, Software o Informática.

Capacidad para trabajar en entornos ágiles, comunicarse efectivamente y adaptarse a un entorno en constante evolución.

Opcionales

  • Experiencia en aplicaciones B2B o de campo, especialmente orientadas a fuerza de ventas o gestión de clientes.
  • Conocimientos en sincronización offline-first, BLE o geolocalización en apps móviles.
  • Certificación o formación en AWS Cloud Practitioner / Developer Associate / Solutions Architect.
  • Experiencia con CI/CD, GitHub Actions y herramientas ágiles como Jira o Confluence.

Condiciones

Modalidad: 100 % home office.

Contrato: 6 meses, con posibilidad de extensión.

El colaborador deberá contar con un equipo físico con solución de antivirus con EDR (Endpoint Detection and Response) previamente configurado.

$$$ Full time
Desarrollador Back-end ( APIs y Microservicios)
  • BC Tecnología
  • Santiago (Hybrid)
Git Docker Microservices API Development
Acerca de BC Tecnología: Somos una consultora de TI con una sólida trayectoria en administrar portafolio, desarrollar proyectos, realizar outsourcing y seleccionar profesionales para clientes de servicios financieros, seguros, retail y gobierno. Nuestro equipo diseñará soluciones en infraestructuras, desarrollo de software y unidades de negocio, apoyando a clientes con enfoques ágiles y orientación a resultados. El proyecto actual es un compromiso de 3 meses, con posibilidad de extensión, orientado a construir APIs y microservicios escalables para procesos y sistemas críticos.

This posting is original from the Get on Board platform.

Funciones y responsabilidades

  • Diseñar, desarrollar y mantener APIs RESTful y/o GraphQL.
  • Documentar APIs utilizando Swagger/OpenAPI.
  • Participar en la definición e implementación de arquitecturas de Microservicios.
  • Desarrollar integraciones entre sistemas (sincrónicas y asincrónicas).
  • Escribir código limpio, eficiente y con pruebas unitarias/integración.
  • Optimizar rendimiento, identificar cuellos de botella y mejorar tiempos de respuesta.
  • Colaborar con equipos técnicos y analistas de negocio para alinear soluciones con requerimientos.

Requisitos y perfil buscado


  • 3+ años de experiencia como Desarrollador Backend.
  • Dominio avanzado en al menos uno de los siguientes lenguajes: Java (Spring Boot), Python (Django/Flask), .NET Core o Node.js.
  • Experiencia sólida desarrollando APIs RESTful.
  • Conocimientos prácticos en microservicios.
  • Manejo de bases de datos relacionales: SQL Server, PostgreSQL o MySQL.
  • Experiencia con Docker (deseable Kubernetes).
  • Uso avanzado de Git.

Requisitos deseables

Experiencia con bases de datos NoSQL (MongoDB, Redis).

  • Experiencia con herramientas CI/CD.
  • Conocimientos en mensajería (Kafka, RabbitMQ u otros).
  • Deseable experiencia en Retail.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $1000 - 1300 Full time
Desarrollador Web
  • Coderslab.io
  • Lima (Hybrid)
HTML5 Python BigQuery ETL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Desarrollador Web para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

© Get on Board. All rights reserved.

Funciones del cargo

  • Desarrollo de funcionalidad de gestión del canal con python y html5, tanto Backend como Frontend.
  • Migración de funcionalidades hacia web.
  • Documentación funcional de los desarrollos.
  • Carrera sistemas o relacionados.
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Requerimientos del cargo

Experiencia entre 2 y 3 años

  • Experiencia en HTML5
  • Experiencia en SQL Server
  • Experiencia en Python
  • Experiencia en BigQuery
  • Experiencia en Gitlab
  • Experiencia en ETLs
  • Experiencia de cualquier sector; sin embargo, plus si tiene experiencia en el sector financiero.

Condiciones

Modalidad de contratación: Recibo por honorarios
Modalidad: Hibrida (3 veces a oficina)

$$$ Full time
Desarrollador Web Python/HTML5
  • BC Tecnología
  • Lima (Hybrid)
HTML5 Python BigQuery Microservices
BC Tecnología es una consultora de TI con experiencia en diseñar soluciones para clientes de servicios financieros, seguros, retail y gobierno. Nuestro enfoque es entregar proyectos de desarrollo y migración de funcionalidades, con equipos ágiles y foco en la continuidad operativa y la evolución de canales digitales. En esta posición, formarás parte de iniciativas que buscan migrar funcionalidades desde aplicaciones móviles (APK) hacia plataformas Web, asegurando soluciones eficientes, escalables y alineadas a los estándares corporativos del banco.
Trabajarás en proyectos que requieren integración de datos, migraciones de funcionalidades, y desarrollo de soluciones que optimicen la experiencia del usuario final, manteniendo la calidad y la trazabilidad documental necesarias para entornos regulados.

Send CV through getonbrd.com.

Funciones y responsabilidades

  • Desarrollar funcionalidades de gestión de canal utilizando Python y HTML5, abarcando tanto Backend como Frontend.
  • Migrar funcionalidades desde APK a plataformas Web, asegurando transiciones sin pérdidas de rendimiento ni integridad de datos.
  • Participar en la elaboración de documentación funcional de los desarrollos, manteniendo trazabilidad y claridad para equipos de operación y negocio.
  • Colaborar en la definición técnica y en la revisión de código para garantizar adherencia a estándares del banco y buenas prácticas.
  • Trabajar de forma colaborativa con equipos de UI/UX, QA y DevOps para entregar soluciones escalables y mantenibles.
  • Identificar, registrar y proponer mejoras continuas en procesos, rendimiento y seguridad de las aplicaciones.

Requisitos y perfil buscado

Requisitos técnicos obligatorios:
  • HTML5
  • Python
  • SQL Server
  • BigQuery
  • GitLab
  • ETLs
Experiencia entre 2 y 3 años como desarrollador, con antecedentes en desarrollo web y migración de funcionalidades. Se valorará experiencia en el sector financiero o en industrias afines. Capacidad para trabajar en entornos colaborativos, orientados a resultados y con buenas habilidades de comunicación para documentar y coordinar cambios con stakeholders.

Deseables

Experiencia previa en migraciones desde apps móviles a plataformas web, conocimiento adicional de arquitecturas de microservicios, y familiarity con procesos de gobierno de datos y seguridad en entornos regulados.Idiomas: español fluido; inglés técnico deseable.

Beneficios y entorno de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $2500 - 3500 Full time
Python Redis REST API Docker
Niuro connects projects with elite tech teams, enabling collaborations with leading U.S. companies. As an Integration Engineer on our global teams, you will contribute to building autonomous, high-performance integrations that connect complex internal and external systems. You will work on technically rigorous industrial data projects, benefitting from continuous professional growth, leadership development, and a strong administrative support structure so you can focus on delivering impactful results. You will have opportunities to contribute to cutting-edge integration initiatives, foster cross-functional collaboration, and be part of a culture that emphasizes technical excellence and innovation—from anywhere in the world.

Find this vacancy on Get on Board.

Functions and responsibilities

As an Integration Engineer (Full Stack), you will design, develop, and maintain integrations between internal and external systems using RESTful APIs, webhooks, and other data exchange mechanisms. You will build and maintain full-stack applications (backend + frontend) to support integration needs, rapidly prototyping solutions with high quality and minimal dependencies on other teams. You will ensure integrations are scalable, secure, and optimized for performance, and implement CI/CD pipelines and deployment automation. You will work with containerization (Docker) and, when needed, basic orchestration. You will collaborate closely with product, operations, and engineering to translate business requirements into practical technical solutions. You will write clean, testable code with unit and integration tests, participate in code reviews, and promote best practices for integration and full-stack development. You will stay informed about security, reliability, and observability concerns, and contribute to the evolution of the platform architecture to support future growth.

Required skills and experience

We are seeking a hands-on backend-focused engineer with strong full-stack capabilities. Required: strong experience with .NET Core (required), Python, or Node.js for backend development; solid understanding of REST APIs, authentication and authorization (OAuth2, JWT, OpenID Connect); frontend proficiency in Angular (required), with knowledge of React or Next.js; experience with relational databases (SQL Server, PostgreSQL) and caching (Redis); fintech experience and Plaid; familiarity with CI/CD pipelines (GitHub Actions, GitLab CI, Azure DevOps) and deployment automation; practical experience with Docker for development and deployment; strong debugging, logging, monitoring, and production troubleshooting skills; excellent problem-solving, communication, and collaboration abilities. Desirable: experience with event-driven systems and message brokers (Kafka, RabbitMQ), cloud platforms (Azure, AWS, GCP), serverless architectures (AWS Lambda, Azure Functions, GCP Cloud), microservices exposure.

Desirable but not required

Familiarity with event-driven architectures and messaging systems (Kafka, RabbitMQ) is a plus. Experience in fintech workflows and with Plaid is highly valued. Knowledge of cloud platforms (Azure, AWS, GCP) and serverless patterns (Lambda, Functions, Cloud) is beneficial. Exposure to microservices and modern deployment strategies will help you thrive in our fast-paced environment. Strong collaboration, adaptability, and a customer-focused mindset are essential to succeed in cross-functional teams.

Benefits

Join Niuro’s 100% remote work model with global flexibility. We invest in your professional development through ongoing training programs and leadership opportunities, ensuring continuous growth. You’ll be part of a global community dedicated to technological excellence, supported by a robust administrative infrastructure that lets you focus on impactful work. Upon successful completion of the initial contract, there may be opportunities for long-term collaboration and full-time employment. You’ll enjoy a collaborative culture that values technical excellence, continuous innovation, and work-life balance, along with opportunities to participate in technically rigorous projects that drive real-world impact.

Informal dress code No dress code is enforced.
Gross salary $2500 - 3500 Full time
Python Cloud Computing Testing Frameworks FastAPI
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. This role focuses on joining a global, remote-first engineering team to design and deliver GenAI-driven solutions for production workloads across diverse industries. You will work on building scalable LLM-based agents, RAG pipelines, and AI-powered APIs deployed in cloud environments, contributing to a portfolio of high-impact projects with top-tier clients. As part of Niuro, you will benefit from continuous professional growth, structured training, and leadership development while collaborating with cross-functional product and engineering teams to drive measurable outcomes for our customers.

Find this vacancy on Get on Board.

Role

Design and implement LLM-powered systems, including agents, retrieval-augmented generation (RAG) pipelines, and AI-driven workflows. Build and maintain backend APIs using Python and FastAPI, with robust integration of multiple LLM providers (e.g., OpenAI, AWS Bedrock, and others). Deploy, monitor, and operate AI services in cloud environments, ensuring reliability, performance, and observability in production. Collaborate closely with product managers, engineers, and stakeholders to translate business requirements into scalable AI solutions. Foster best practices in software engineering, security, and data governance within GenAI projects. Continuously evaluate emerging AI technologies and architectures to drive innovation and maintain a competitive edge. Participate in code reviews, testing, and documentation to uphold quality standards and maintainability.

Requirements

Excellent English communication skills, both written and spoken. Strong soft skills including ownership, collaboration, and the ability to convey complex technical concepts clearly to cross-functional teams. A robust technical foundation in software engineering and AI, with demonstrated hands-on experience in deploying GenAI/LLM systems to production. Proficiency in Python and building REST APIs using FastAPI. Practical experience with LLMs/GenAI in production environments and integrating various LLM providers. Experience designing and implementing scalable cloud-based solutions on platforms such as AWS (or similar). Familiarity with containerization (Docker) and deployment orchestration (ECS, Kubernetes). Knowledge of LangChain or similar frameworks, LangGraph, RAG architectures, and experience with services like Amazon Bedrock, Textract, Pydantic AI, BAML. Prototyping tools such as Streamlit or Aestiva HTML/OS. Testing practices (pytest, Playwright) and monitoring/observability tools (CloudWatch, Prometheus, Grafana).

Desirable

Experience with end-to-end GenAI product development, including design, deployment, and lifecycle management. Familiarity with data privacy, security, and governance concerns in AI systems. Prior experience working with distributed, remote teams and delivering projects for U.S.-based clients. Knowledge of performance optimization, cost management, and reliability engineering in AI workloads. Strong analytical mindset, problem-solving abilities, and a proactive approach to learning and experimentation.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Gross salary $6700 - 9200 Full time
Python PostgreSQL Docker GraphQL
Company: Flow RMS
Overview: Flow RMS is building the operational backbone for the industrial supply chain, serving manufacturers, sales rep firms, and distributors. Our platform replaces slow, manual workflows—CRM, orders, commissions, product data, reporting—with an AI-first, automation-driven system that mirrors how this industry operates. We move fast, ship daily, and expect engineers to think, not just code. This role contributes to core backend systems powering CRM workflows, AI-driven document ingestion, and data-heavy operational services, delivering scalable, reliable capabilities that directly impact field operations and business outcomes.

Official source: getonbrd.com.

What you will do

  • Build and maintain async-first Python services in production.
  • Design and implement GraphQL APIs and supporting service layers.
  • Own backend systems powering CRM workflows and AI document processing.
  • Write clean, well-typed, maintainable Python code.
  • Apply strong architectural patterns consistently across the codebase.
  • Collaborate directly with frontend, AI, and product leadership.
  • Ship improvements continuously without introducing technical debt.
  • Operate in an environment that values correctness, maintainability, and performance.

Requirements and expectations

We are seeking a Senior Python Backend Engineer with deep experience in async systems to help scale Flow RMS’s core backend. You will work in a production codebase that values correctness and performance, with ownership over architecture and long-term maintainability. You will engage in building robust data-heavy services, including CRM workflows and AI-driven document processing, while aligning with product goals and customer needs.
Technical focus: Python 3.11+ (preferably 3.13), async I/O patterns, FastAPI or similar async frameworks, Pydantic for data validation and settings, PostgreSQL with advanced features, SQLAlchemy 2.0 async ORM, Alembic migrations, GraphQL (Strawberry preferred), REST API design, API versioning, and clean, layered architectures. You will implement repository patterns, dependency injection, and service layers, with SOLID principles at the core.
AI-oriented coding: This role requires active, real-world use of AI-assisted development. You must apply agentic coding methods, break work into specs for AI tools, delegate subtasks, and leverage AI to accelerate development while preserving correctness. Stay current on AI tooling, patterns, and LLM capabilities, combining strong typing with structured outputs.
Desirable environment: Multi-tenant databases, vector stores, embeddings, semantic search, and integration with AI/ML tooling. We value an engineer who ships quickly yet avoids technical debt, with a strong bias towards high-quality code, clear communication, and collaboration across teams.

Desirable qualifications and traits

AI/ML experience: LLM integrations (OpenAI, Anthropic Claude, Groq), structured frameworks (e.g., pydantic-ai), vector databases (Qdrant, Pinecone, Weaviate), and AI agents with tool registration and structured outputs.
Infrastructure and DevOps: Docker, Kubernetes, Redis, TaskIQ or Celery, CI/CD (GitHub Actions), serverless platforms (Modal or equivalents), and S3-compatible storage. Observability tooling (Datadog or similar), and experience with PDF/DOCX/OCR document processing.
Data tooling: Polars or Pandas for data processing, and robust data modeling for multi-tenant scenarios.

Benefits and how we work

We offer a collaborative, high-impact environment with ownership over meaningful systems. While specifics may vary by location, we provide competitive compensation, opportunities for growth, and a culture that emphasizes continuous learning and low-ceremony engineering. You’ll join a team that values autonomy, clear communication, and principled decision-making. We encourage a healthy work-life balance and provide the resources you need to succeed, including mentorship, modern tooling, and opportunities to contribute to a fast-growing enterprise-grade platform.

Fully remote You can work from anywhere in the world.
$$$ Full time
Python PostgreSQL SQL Docker
Niuro connects ambitious projects with elite tech teams to deliver high-impact solutions for leading U.S. companies. The selected candidate will join a fintech-focused environment where data integrity, reliability, and scalability are paramount. You will contribute to building autonomous, high-performance backend systems that ingest, normalize, validate, and store market data at scale. This role emphasizes robust data pipelines, production-grade services, and seamless API-based integrations, enabling real-time and historical market data workflows for analytics and trading applications. The project culture values technical excellence, continuous improvement, and a collaborative global team committed to delivering measurable value while maintaining a strong administrative support backbone to allow engineers to focus on impactful work.

© Get on Board. All rights reserved.

Core Responsibilities

Design, implement, and maintain asynchronous Python services for market-data ingestion in a fintech setting. Build clean, well-typed, maintainable Python code using modern best practices. Design and operate microservice-based architectures using Docker. Optimize concurrency, throughput, and resource usage in asynchronous systems. Own services end-to-end: development, debugging, monitoring, and long-term improvements.
  • Data Pipelines & Reliability: Build and maintain robust API-based ingestion pipelines. Handle real-world failure modes including partial data, retries, idempotency, and upstream instability. Monitor ingestion success, latency, and data quality metrics. Conduct root-cause analyses on data incidents and implement durable fixes. Ensure deterministic behavior under load.
Database & Data Integrity: Work directly with PostgreSQL and TimescaleDB using raw SQL where appropriate. Design and maintain normalized schemas for time-series and reference data. Ensure data correctness, consistency, and traceability across ingestion layers. Maintain and debug production databases. Design scalable data structures to support growing data volume and query load.

Required Experience & Skills

• 5+ years of professional experience building backend systems in Python.
• Strong experience with async Python (asyncio, async I/O patterns).
• Excellent knowledge of PostgreSQL, raw SQL, and database performance tuning.
• Experience designing and operating production distributed systems.
• Strong understanding of failure modes, backpressure, retries, and idempotency.
• Proven ability to own systems end-to-end in production.

Bonus – Fintech & Data Awareness

• Experience with financial or market data.
• Familiarity with time-series modeling and high-volume data ingestion.
• Ability to reason about how data quality impacts downstream trading or analytics systems.
• Experience supporting analytics or front-end consumers of market data.

Benefits

We provide opportunities to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing global flexibility. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from strong administrative support that enables you to focus on impactful work without distractions.

Informal dress code No dress code is enforced.
Gross salary $2300 - 3200 Full time
JavaScript React React-Native Responsive Design

YesLawyer is a software platform connecting consumers with local attorneys. We are building a professional legal services marketplace designed to connect consumers with qualified legal professionals to resolve needs efficiently. Our current focus is a professional legal services app serving customers in the United States, with plans to expand to additional countries. This project emphasizes a user-centric frontend experience across outward-facing websites, customer portals, and lawyer portals, built to scale with a growing, international team. You will contribute to a fast-moving, collaborative environment where frontend work directly impacts how people access legal services online.

Apply from getonbrd.com.

Job functions

  • Maintain and enhance the web application including the outward-facing site, customer portal, and lawyer portal.
  • Develop new components and pages, focusing on performance, accessibility, and responsive design.
  • Integrate APIs from the backend team and ensure robust data handling and state management.
  • Develop testing, logging, and monitoring procedures to ensure quality and reliability.
  • Review code and mentor junior frontend developers to promote design consistency and best practices.

Qualifications and requirements

We are seeking a seasoned Front-end Engineer with a strong track record in delivering polished React-based applications. Ideal candidates have 5+ years of JavaScript experience, with substantial React experience and exposure to React Native. Must have at least 3+ years in a senior role with direct reports, and a solid foundation in computer science or related field. Experience with Django is a plus (backend familiarity is beneficial but not required). Excellent communication skills in English (C1 level or higher). A proactive, collaborative mindset with the ability to work effectively with peers from LatAm and the US, and a desire to contribute to a growing, international product team.

Desirable

Tenured senior frontend professionals (10+ years) with advanced React/JS expertise, leadership experience guiding teams, and a track record of building scalable UI architectures. Graduate degree in CS or related field, higher English proficiency (C2), and additional experience with Django or other backend frameworks are highly valued. Candidates who thrive in a fast-paced, cross-cultural environment and demonstrate strong problem-solving and mentoring capabilities will stand out.

Benefits

  • We offer a close-knit, collaborative environment within a united team, with broad opportunities for professional growth and technical skill development on projects using cutting-edge technology.
  • The contract is temporary, full-time with 100% remote modality, ideal for professionals who value flexibility and working with international teams.

Fully remote You can work from anywhere in the world.
Gross salary $2800 - 3900 Full time
Ingeniero de Software Senior
  • Checkr
  • Santiago (Hybrid)
Java Ruby Python Microservices

En Checkr estamos construyendo la infraestructura de personas para el futuro del trabajo. Fundada en 2014, usamos tecnología de vanguardia y aprendizaje automático para hacer más ágil y justa la selección de talento, ofreciendo experiencias rápidas y seguras.

Con más de 100.000 clientes, como DoorDash, Coinbase, Lyft, Instacart y Airtable, somos uno de los mayores proveedores de datos en EE. UU., ayudando a las organizaciones a tomar decisiones fundamentadas que protegen a sus equipos y clientes.

Buscamos un Ingeniero de Software Senior para trabajar en proyectos de alto impacto que den forma al futuro de la contratación, creando soluciones seguras que conecten a millones de personas con nuevas oportunidades

© Get on Board.

Responsabilidades del cargo

  • Aprender sobre los sistemas ATS y cómo interactúan con Checkr.
  • Crear nuevas funciones para las integraciones ATS y probarlas.
  • Comunicarte con desarrolladores internos y externos para crear soluciones que mejoren su productividad.
  • Definir los requisitos para ampliar las API públicas de Checkr con el fin de cubrir las funciones nuevas y existentes de los productos.
  • Ayudar a identificar, clasificar y resolver errores.

Calificaciones y Requisitos del cargo

  • Familiaridad con la creación y el uso de diferentes tipos de API, por ejemplo, ReST, SOAP, gRPC.
  • Conocimientos de lenguajes de programación orientados a objetos, preferiblemente Ruby, Java o Python.
  • Curiosidad por descubrir cómo crear código limpio, robusto y escalable.
  • Experiencia con al menos uno o más de los siguientes: herramientas CI/CD, microservicios, servicios de infraestructura (sistemas de publicación-suscripción, puertas de enlace API, marcos RPC, estrategias de pruebas de alto nivel) o software de código abierto.
  • Experiencia al crear sistemas distribuidos fiables y puedes discutir en profundidad las ventajas e inconvenientes.
  • Buena comunicación para generar acuerdos entre grupos de personas con diferentes niveles de experiencia técnica.
  • Dominio avanzado del inglés verbal y escrito

Que ofrecemos?

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
$$$ Full time
Desarrollador y Arquitecto de SW
  • SONDA
  • Santiago (Hybrid)
Microservices Cloud Computing CI/CD API Development

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, buscamos a un Desarrollador y Arquitecto de SW.

Job opportunity on getonbrd.com.

Funciones del cargo

· Diseñar y guiar la implementación de arquitecturas de software escalables, seguras y resilientes.

· Efectuar desarrollos de alta complejidad o urgencia.

· Acompañar y mentorear a los equipos de desarrollo, fomentando buenas prácticas y calidad técnica.

· Definir lineamientos de arquitectura, estándares de desarrollo y patrones reutilizables.

· Participar en la modernización de aplicaciones, migraciones a la nube y adopción de nuevas tecnologías.

· Elaborar y comunicar documentación de arquitectura (modelos, diagramas C4, ADRs).

· Evaluar tecnologías, frameworks y herramientas para proponer soluciones que agreguen valor.

· Conectar visión técnica con estrategia de negocio, actuando como facilitador en la toma de decisiones.

Requerimientos del cargo

· Título: Ingeniería Civil en Computación, Ingeniería de Software, Ingeniería Informática o afín.

· Deseable: Magíster en Ingeniería de Software, Arquitectura de Software, Transformación Digital o MBA Tecnológico.

· 10+ años de experiencia en desarrollo de software, con dominio en al menos tres lenguajes y frameworks (Java, C#, Python, Node.js, Go, Spring Boot, Spring Framework, Spring Security, Spring Batch, Angular, JavaScript, Bootstrap, Vue.js).

· Conocimiento profundo de principios y patrones de diseño de software (SOLID, DDD, Clean Architecture, Hexagonal).

· Experiencia en arquitecturas basadas en microservicios, APIs REST/GraphQL, mensajería (Kafka, RabbitMQ).

· Experiencia en bases de datos relacionales y NoSQL (PostgreSQL, MySQL, MongoDB, Redis).

· Conocimiento en integración y despliegue continuo (CI/CD), contenedores (Docker, Kubernetes) y cloud (AWS, Azure o GCP).

· Manejo de modelos de documentación de arquitectura (C4, ADRs).

· Experiencia en metodologías ágiles (Scrum, SAFe, DevOps).

Opcionales

Y mucho mejor si destacas por: ​

· Experiencia en modernización de aplicaciones legacy y migración a cloud.

· Conocimiento de arquitecturas event-driven, serverless y reactivas.

· Familiaridad con frameworks de arquitectura empresarial (TOGAF, Zachman, ArchiMate).

· Certificaciones en cloud (AWS/Azure/GCP), Kubernetes o Arquitectura de Software.

· Experiencia en seguridad de aplicaciones (OAuth2, JWT, Zero Trust, DevSecOps).

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
$$$ Full time
Software Engineer (Python)
  • BC Tecnología
  • Santiago (Hybrid)
Python DevOps React Microservices
BC Tecnología es una consultora de TI con experiencia en administrar portafolio, desarrollar proyectos, realizar outsourcing y seleccionar profesionales para clientes en servicios financieros, seguros, retail y gobierno. Somos un equipo que crea soluciones ágiles en infraestructuras, desarrollo de software y unidades de negocio. El proyecto se orienta a una solución digital en un entorno colaborativo, con enfoque en prácticas ágiles, integración de APIs y consumo de servicios dentro de un portafolio de soluciones para clientes de alto perfil. Incorporarse a un equipo técnico que mantiene y evoluciona soluciones actuales, con posibilidad de crecimiento y desarrollo profesional en un entorno dinámico y orientado al cliente.

Find this job and more on Get on Board.

El/la Software Engineer Semi Senior se integrará a un equipo de desarrollo para participar en el ciclo completo de vida de software: análisis de requerimientos, diseño, implementación, pruebas y despliegue de soluciones. Sus principales responsabilidades incluyen el desarrollo backend en Python, desarrollo frontend con React, y la implementación de componentes de calidad y automatización. Deberá colaborar con equipos multifuncionales en un entorno ágil, garantizar la calidad del código, participar en revisiones y contribuir a la mejora continua de procesos y prácticas de desarrollo. Será responsable de integrar APIs y servicios en la nube, así como de cubrir aspectos de rendimiento, seguridad y escalabilidad de las soluciones.
Buscamos un/a Software Engineer Semi Senior con al menos 2 años de experiencia en desarrollo de software. Requisitos clave: experiencia sólida en Python para desarrollo backend, conocimientos de JavaScript y experiencia en desarrollo frontend con React, y experiencia en Cloud Computing (AWS, GCP o Azure). Debe ser capaz de trabajar en equipos colaborativos y seguir metodologías ágiles. Se valorará experiencia en proyectos del rubro Retail y en integración y consumo de APIs. Se esperan habilidades de resolución de problemas, buenas prácticas de código, proactividad y capacidad para comunicarse efectivamente en un entorno de equipo. Se valoran también habilidades de aprendizaje continuo y adaptación a nuevas tecnologías.
Es altamente deseable experiencia en proyectos del rubro Retail, experiencia en integración y consumo de APIs, conocimiento de arquitecturas de microservicios, y familiaridad con herramientas de DevOps. Se valora iniciativa, capacidad de trabajo en entornos multiculturales y orientación al cliente. Competencias de comunicación, trabajo en equipo, y disponibilidad para asumir responsabilidades adicionales conforme crezca el proyecto.
En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

$$$ Full time
Desarrollador .NET / SQL / Angular
  • BC Tecnología
  • Santiago (Hybrid)
Python Scrum MVC Microservices
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales para áreas de Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio. El proyecto se centra en migraciones de datos entre plataformas, desarrollo y mantenimiento de soluciones basadas en SQL Server, .NET y front-end con Angular, orientadas a clientes en sectores como servicios financieros, seguros, retail y gobierno. El rol implica trabajar en equipos ágiles para entrega de software de alta calidad, con foco en rendimiento, escalabilidad y cumplimiento de requerimientos del Product Owner y normas de arquitectura digital. Participarás en iniciativas de mejora continua, migraciones de datos y desarrollo de microservicios en un entorno tecnológico avanzado, con énfasis en buenas prácticas de pruebas y entrega incremental.

© Get on Board.

Funciones principales

  • Desarrollar y mantener aplicaciones y procesos utilizando SQL Server y SQL Integration Services (SSIS), ASP.NET y .NET Framework 4.x.
  • Desarrollar soluciones de software que aprovechen eficientemente recursos (memoria, disco, CPU) y cumplan con requerimientos y funcionalidades definidas por el Product Owner.
  • Programar código funcional, mantenible y de calidad para incrementar el producto, abarcando Backend y Frontend (MVC con Angular, Python cuando aplique).
  • Diseñar e implementar microservicios, gestionar su ciclo de vida y su despliegue en entornos de nube como AWS.
  • Realizar pruebas unitarias e integrales, corregir defectos detectados en QA y asegurar que los incrementos de producto estén listos para producción al final de cada sprint.
  • Participar en la propiedad colectiva del código del incremento del sprint y buscar mejoras continuas en entregables y procesos.
  • Analizar e interpretar datos para apoyar la toma de decisiones, vinculando requisitos de negocio con soluciones técnicas robustas.
  • Colaborar en equipos ágiles Scrum, manteniendo una comunicación efectiva y documentando artefactos técnicos y funcionales.
  • Requisitos de migraciones de datos entre plataformas, con conocimiento avanzado de procesos masivos (Batch) y herramientas de integración.

Descripción

Buscamos un Desarrollador Senior con sólida experiencia en migraciones de datos, desarrollo full-stack y capacidad para trabajar en un entorno bancario y de servicios. El candidato ideal poseerá un historial probando soluciones complejas, integrando capas de presentación, negocio y datos, y demostrará habilidades analíticas avanzadas para modelar y transformar información. Se requiere experiencia en SQL Server, SSIS, .NET, MVC con Angular y desarrollo de microservicios. Deberá trabajar con metodologías Scrum y colaborar con equipos multifuncionales para entregar soluciones de alta calidad, escalables y seguras. Se valorarán certificaciones en .NET, SQL Server y/o Scrum, así como experiencia en plataformas en la nube. El rol implica un turno híbrido con presencia en Santiago centro y coordinación con equipos en Las Condes según la modalidad de la empresa.

Requisitos deseables

Formación universitaria en Ingeniería de Sistemas, Informática o campos afines. Mínimo 5 años de experiencia en desarrollo de software en proyectos similares. Dominio avanzado de HTML5, CSS y JavaScript, conocimiento de Angular y desarrollo móvil/web. Experiencia comprobable en SQL Server, SSIS, ETL, ASP.NET, MVC con Angular y Python. Deseable experiencia en migraciones de datos, procesos batch/masivos (CMD) y desarrollo de microservicios. Capacidad analítica avanzada, buena comunicación y trabajo en equipo. Conocimientos en Genesys Cloud y Salesforce Marketing Cloud son un plus. Se valora experiencia en entornos bancarios y en entornos que requieren alta seguridad y cumplimiento regulatorio.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Gross salary $1800 - 2300 Full time
Ingeniero(a) Junior de Software y Robótica
  • Maquintel robotic services
  • Santiago (In-office)
Python Git Data Analysis Linux

Resumen del cargo

Buscamos un/a ingeniero recién egresado/a con fuerte base técnica y ganas de aprender "en la vida real" para sumarse a un equipo que construye soluciones de inspección de activos críticos usando robótica, percepción (visión/3D), plataformas de datos y gemelos digitales. Tu foco será conectar el mundo físico con el digital: capturar datos desde robots y sensores, procesarlos (imágenes, nubes de puntos, telemetría), exponerlos en una plataforma (APIs/dashboards) y transformarlos en un gemelo digital útil para operación y mantenimiento.

Perfil ideal

  • Ingeniero Civil Eléctrico, Electrónico, Computación/Informática
  • Recién egresado/a o 0-2 años de experiencia (practicas cuentan).
  • Alto potencial, curiosidad y mentalidad de aprendizaje acelerado.
  • Liderazgo desde el primer día: ownership de tareas, iniciativa y capacidad de pedir ayuda a tiempo.
  • Orden y rigurosidad: reproducibilidad, bitácora técnica, documentación y foco en calidad de datos.

Exclusive to Get on Board.

Responsabilidades clave

1) Software de captura y procesamiento (Robótica + Datos)

  • Desarrollar y mantener herramientas para recolección, limpieza y procesamiento de datos generados por robots (imágenes, video, LiDAR/nubes de puntos, IMU y otros sensores).
  • Diseñar pipelines reproducibles para logging, sincronización, validación y respaldo de datos.
  • Automatizar tareas recurrentes (importación, conversión de formatos, control de calidad, generación de reportes base).

2) Percepción y analítica (Visión + 3D)

  • Implementar y optimizar algoritmos de procesamiento de imágenes (OpenCV) y análisis de datos espaciales / nubes de puntos (filtros, registro, segmentación, métricas).
  • Apoyar la curación de datasets, anotación/etiquetado cuando aplique, y validación de resultados.
  • Medir desempeño: precisión/recall cuando corresponda, error, cobertura, repetibilidad y tasa de reproceso.

3) Plataforma de datos (Backend + Integraciones + Dashboards)

  • Construir y mantener servicios para explotación de datos: APIs, conectores y componentes de backend.
  • Modelar y mantener bases de datos (por ejemplo PostgreSQL) y apoyar flujos de ETL liviano y exports para clientes.
  • Crear visualizaciones y dashboards para usuarios no expertos, enfocadas en decisión y trazabilidad.

4) Gemelos digitales (Activos + Evidencia + Trazabilidad)

  • Estructurar activos y campanas: jerarquías, metadatos, criticidad, evidencia y comparaciones "antes/después".
  • Apoyar la construcción de vistas 3D/modelos y reportes técnicos orientados a mantención y operación.
  • Asegurar consistencia: naming, versionado de datasets y estándares internos.

5) Integración y calidad (Hardware/Software + Operación)

  • Colaborar con ingeniería de hardware/robótica para una integración fluida (interfaces, formatos, límites de cómputo).
  • Diseñar y ejecutar pruebas para asegurar rendimiento, robustez y calidad del dato.
  • Documentar código y procesos de forma clara; mantener control de versiones y buenas prácticas de desarrollo.

Habilidades técnicas requeridas

  • Python (obligatorio). C++ (deseable).
  • Manejo de Linux/Unix y herramientas de terminal.
  • Análisis de datos: NumPy, Pandas, SciPy (o equivalentes).
  • Procesamiento de imágenes: OpenCV (deseable fuerte).
  • Control de versiones: Git (obligatorio).
  • Capacidad de crear visualizaciones (por ejemplo Matplotlib) y dejar herramientas usables por terceros.

Deseables (suman mucho)

  • ROS/ROS2 (nodos, tópicos, servicios, acciones).
  • Nubes de puntos y 3D: Open3D, PCL u otras.
  • Machine Learning aplicado a vision: PyTorch/TensorFlow/Keras.
  • Nube: AWS, Azure o Google Cloud (almacenamiento, procesamiento o despliegue).
  • Docker y nociones de APIs REST.

Si te apasiona la robótica, el software, machine learning, la innovación y el desarrollo, con un foco en la generación de nuevos productos y servicios, este es el lugar ideal para aprender y crecer profesionalmente. Estarás investigando, desarrollando e implementando soluciones en base a una combinación entre software y hardware para resolver problemas desafiantes con alto impacto en la industria y medio ambiente.

Somos un equipo multidisciplinario, con un ambiente laboral grato y relajado que cuenta con servicios únicos bien desarrollados y probados. Tenemos mucho entusiasmo por seguir desarrollando e implementando servicios y soluciones innovadoras.

Fuimos finalistas del Premio nacional de innovación Avonni 2019. También recibimos el premio a la mejor contribución a la industria de transporte de relaves Optimus Pipe 2018.

$$$ Full time
Python PostgreSQL REST API Docker

En Foris desarrollamos una suite de soluciones cloud basada en IA para instituciones de educación superior, orientada a mejorar la experiencia digital de estudiantes, docentes y equipos administrativos, optimizando recursos y automatizando procesos clave.

Somos una EdTech bootstrapped con más de 9 años de crecimiento sostenido. Hoy nuestras soluciones impactan a más de un millón de estudiantes en 10 países de Latinoamérica y España.

Hoy nos encontramos en una etapa de expansión de la plataforma. Nuestro foco está en fortalecer el core del producto y ampliar sus capacidades para soportar flujos académicos cada vez más críticos, que involucran estudiantes, docentes y personal académico, y que sostienen la operación diaria de la universidad.

A diferencia de soluciones académicas tradicionales, en Foris apostamos por una plataforma moderna, orientada a datos, diseñada para integrarse, escalar y evolucionar incorporando capacidades avanzadas de inteligencia artificial.

Apply directly through getonbrd.com.

¿Qué Software Engineer buscamos?

Buscamos a una persona con experiencia construyendo servicios backend escalables e integrando componentes de IA, que combine excelencia técnica con la capacidad de diseñar soluciones limpias y mantenibles. Alguien que investigue cómo funcionan las cosas, que diseñe soluciones pensadas para el largo plazo y que entienda que en la era de asistentes de código el diseño, criterio y la atención al detalle marcan la diferencia.

Serás parte del ciclo completo: diseño, desarrollo, deployment, testing y mantenimiento, trabajando en conjunto con equipos de ingeniería, producto, consultoría e infraestructura para llevar nuestros servicios al siguiente nivel. Nos importa que entiendas cómo cada servicio encaja en el ecosistema de la suite, tomes decisiones bien fundamentadas y aportes a la conversación técnica como alguien que resuelve problemas, no solo que escribe código.

Trabajarás en un equipo autónomo, con foco en calidad y escalabilidad. Participarás en las decisiones técnicas, documentando tu proceso y compartiendo tus soluciones, especificaciones y razonamientos con el equipo de ingeniería y sus stakeholders. Cada uno de tus aportes contribuirá a nuestra base de conocimiento, impactará nuestra cultura ingenieril y finalmente a miles de usuarios

Requisitos del cargo

  • Formación sólida en fundamentos de ingeniería de software y/o ciencia de la computación, con experiencia práctica construyendo soluciones reales. En particular:
    • Conocimiento del ciclo completo de desarrollo de sistemas.
    • Familiaridad con patrones de arquitectura (ej. MVC, Cliente-Servidor) y paradigmas de programación (POO y programación funcional).
  • Experiencia programando en Python.
  • Experiencia diseñando e implementando APIs (REST y/o GraphQL).
  • Dominio de bases de datos relacionales, preferentemente PostgreSQL (queries avanzadas, optimización e índices).
  • Experiencia usando Docker.
  • Experiencia desarrollando software e implementando algoritmos para resolver problemas complejos (ej. automatización, planificación, búsqueda, clasificación, recomendación, clustering).
  • Habilidades de colaboración:
    • Capacidad de expresar asuntos técnicos e ideas de manera simple, precisa y adaptada al interlocutor.
    • Escribir código y especificaciones técnicas pensados para que otros los lean, acompañados de documentación clara.
    • Capacidad para dar y recibir feedback, aprender y ajustar tu forma de trabajo para integrarte eficazmente al equipo.
  • Comodidad leyendo, escribiendo y escuchando contenido en inglés técnico (equivalente B2).

Sería un plus si tienes

  • Experiencia con Django.
  • Familiaridad con entornos cloud (idealmente AWS) y orquestación (Kubernetes).
  • Experiencia integrando librerías o servicios de ML/AI (ej. scikit-learn, TensorFlow, PyTorch, OpenAI, HuggingFace, Ollama).
  • Experiencia creando o integrando agentes, incluyendo creación e integración de tools, construcción o uso de MCP o librerías como LangChain.
  • Experiencia utilizando herramientas de desarrollo basadas en IA o agentes de código (por ejemplo Cursor u otras similares).
  • Experiencia trabajando con spec-driven development.
  • Experiencia con optimización, sistemas de recomendación o motores de reglas.
  • Experiencia diseñando arquitecturas distribuidas o con microservicios.
  • Conocimiento en MLOps o despliegue de modelos en producción.
  • Participación en proyectos open-source o comunidades de software.
  • Pasión ingenieril: interés por la arquitectura, el refactor, la eficiencia y el diseño de soluciones elegantes y escalables.

¡Así somos!

Somos un equipo multidisciplinario, motivado, amante de la tecnología y con ganas de generar impacto. Nuestro ambiente es multicultural, tenemos un ratio de 40-60% entre mujeres y hombres, tanto en el equipo DEV como en todo Foris, y pertenecemos a distintas nacionalidades como Chile, Colombia, Alemania, Perú, Cuba, México, Venezuela y contando.

Sabemos que no todo es internet: nos encanta reunirnos, presencial o virtualmente, para celebrar hitos importantes, tener sesiones profundas frente a la pizarra y conocernos mejor como equipo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
Gross salary $2900 - 4200 Full time
Desarrollador Full-Stack Sr
  • Conosur
  • Santiago (Hybrid)
JavaScript Java Python REST API

Conosur es una empresa líder en intermediación de seguros con un fuerte foco en inversión tecnológica. Nos encontramos en la tercera posición del mercado y buscamos consolidar una oferta de servicio de alta calidad y diferenciada para nuestros clientes mediante una sólida apuesta tecnológica. Nuestro objetivo es que la automatización de procesos y una visión innovadora nos permita avanzar hacia el liderazgo como número 1 del sector. El equipo técnico analiza, diseña y ejecuta soluciones que optimizan operaciones y permiten una experiencia de cliente sobresaliente. El/la candidato/a se integrará a un equipo multidisciplinario orientado a desarrollar plataformas y herramientas que incrementen la eficiencia, escalabilidad y seguridad de nuestras operaciones.

This job is available on Get on Board.

Funciones

  • Desarrollar y mantener aplicaciones web de pila completa (Full Stack) con énfasis en calidad, rendimiento y escalabilidad.
  • Colaborar con equipos de negocio y producto para entender requerimientos y traducirlos en soluciones técnicas eficientes.
  • Participar en la arquitectura, diseño, implementación y pruebas de APIs y componentes front-end y back-end.
  • Aplicar buenas prácticas de desarrollo, pruebas automatizadas, integración continua y despliegue continuo.
  • Resolver incidentes y participar en la mejora continua de procesos y tecnologías.
  • Mentoría a perfiles junior y soporte en la toma de decisiones técnicas dentro del equipo.
  • Contribuir a la gestión de seguridad, cumplimiento y calidad del software.

Requisitos y perfil

Buscamos un/a Desarrollador/a Full Stack Senior con sólida experiencia en desarrollo web y un historial de entrega de soluciones complejas. El/la candidato/a ideal debe combinar habilidades técnicas avanzadas con pensamiento analítico y capacidad para trabajar de forma proactiva en un entorno dinámico.

Requisitos técnicos: JavaScript/TypeScript, React o Angular en el frontend, Node.js o Java/Python en el backend, experiencia con bases de datos relacionales y NoSQL, conceptos de CI/CD, pruebas automatizadas y contenedores (Docker/Kubernetes). Familiaridad con APIs REST/GraphQL, metodologías ágiles y buenas prácticas de seguridad y rendimiento. Deseable experiencia en seguros o servicios B2B y en entornos críticos para negocio.

Habilidades: comunicación efectiva, trabajo en equipo, orientación a resultados, capacidad de análisis, adaptación a cambios y enfoque en la calidad. Idiomas: español competente; inglés técnico es un plus.

Deseables

Se valorará experiencia en diseño de soluciones basadas en microservicios, experiencia en herramientas de automatización de pruebas, arquitectura orientada a eventos, y conocimiento de plataformas en la nube (AWS, Azure o Google Cloud). También se aprecia experiencia en migración de aplicaciones legadas, gestión de incidentes críticos y capacidad para liderar iniciativas técnicas de alto impacto.

Beneficios

  • Horario y Renta a convenir.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Conosur provides a computer for your work.
Informal dress code No dress code is enforced.
$$$ Full time
Desarrollador Full-Stack
  • SONDA
  • Santiago (Hybrid)
Java Git REST API C#
Somos SONDA, empresa líder en transformación digital en la región, dedicada a impulsar soluciones tecnológicas que transforman negocios y mejoran la calidad de vida de las personas. Buscamos ampliar nuestros equipos de desarrollo para avanzar en proyectos de software modernos, que integran backend, frontend y automatización de procesos. Integrarás equipos multidisciplinarios dentro de nuestra academia de talento y bienestar, trabajando en iniciativas con alto impacto para clientes en distintos sectores. Si te apasiona aprender y evolucionar, te invitamos a formar parte de una empresa que prioriza el crecimiento profesional, la colaboración y la innovación tecnológica.

Applications: getonbrd.com.

Qué harás

  • Diseñar, codificar, probar, depurar, documentar e implementar aplicaciones utilizando una variedad de lenguajes y plataformas, con foco en Java y entornos asociados, además de experiencia en API REST, servicios web y componentes backend.
  • Desarrollar pruebas de concepto y prototipos, asegurando que las aplicaciones sean compatibles en múltiples plataformas y navegadores.
  • Construir mejoras, resolver errores y ejecutar pruebas unitarias y planes de pruebas para garantizar la calidad del software.
  • Analizar requisitos del sistema y procesos de negocio existentes, proponiendo soluciones técnicas robustas, escalables y seguras.
  • Participar en el diseño, modelamiento y optimización de bases de datos relacionales (SQL Server), incluyendo consultas, procedimientos almacenados, triggers y funciones.
  • Contribuir al desarrollo de backend, APIs REST y servicios, con conocimiento de patrones MVC/MVVM y Entity Framework/LINQ.
  • Colaborar con equipos de frontend (Angular/React/Vue) para integrar componentes reutilizables y consumir APIs REST.
  • Apoyar en iniciativas de seguridad de datos, tuning de consultas y buenas prácticas de DevOps (Git, CI/CD).

Qué buscamos

Idealmente titulados en Ingeniería Informática, Ciencias de la Computación, Ingeniería de Software u afín. Buscamos más de 3 años de experiencia comprobada en análisis, diseño y desarrollo de software. Debes tener experiencia en Backend con SQL Server, modelado y optimización de bases de datos, y dominio en desarrollo de aplicaciones backend, APIs REST y servicios web.
Se valorará conocimiento en C# (.NET / .NET Core / .NET Framework), Entity Framework, LINQ y patrones MVC/MVVM. También se aprecia experiencia en Node.js y Python para microservicios o automatización, y conocimientos en Front-End con Angular, React o Vue.js. Certificaciones en .NET, Azure, Angular/React/Vue, Git y prácticas DevOps serán un plus.
Buscamos perfiles orientados a resultados, con capacidad de trabajo en equipo, buena comunicación y enfoque en la calidad y la seguridad de la información. El rol exige adaptabilidad, proactividad y compromiso con la mejora continua.

Requisitos deseables

Certificaciones Microsoft: .NET Developer / Azure Developer Associate; Scrum Developer Certified (SDC); Angular/React/Vue.js; Git & DevOps Essentials (GitLab, Jenkins, CI/CD). Experiencia comprobable en entornos ágiles, solución de problemas complejos y capacidad para diseñar soluciones escalables en múltiples plataformas.

Qué ofrecemos

En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.
Ofrecemos un ambiente colaborativo, diverso e innovador, fomentando el trabajo en equipo y el respeto entre colegas.
Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales.
El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.
Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.
Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Health coverage SONDA pays or copays health insurance for employees.
Computer provided SONDA provides a computer for your work.
Gross salary $3000 - 3500 Full time
Python PostgreSQL REST API Django

Alluxi busca un Arquitecto de Soluciones Senior con visión técnica y capacidad de ejecución para liderar varios proyectos simultáneamente, principalmente orientados a clientes enterprise en USA y México. El rol combina el diseño de arquitecturas sólidas con el desarrollo hands-on cuando la situación lo requiere. El candidato trabajará de forma estrecha con el CEO en propuestas técnicas complejas y será la escalación técnica para los tech leads distribuidos entre México y Argentina. Se trabajará en sectores como healthcare, fintech y educación, con un enfoque en la entrega de soluciones escalables y seguras, apoyando en la definición de costos, alcances y plazos, y promoviendo buenas prácticas de código y arquitectura en múltiples proyectos.

Apply without intermediaries through Get on Board.

Funciones principales

  • Liderar técnicamente varios proyectos simultáneos, con revisión continua de arquitectura.
  • Diseñar arquitecturas de soluciones para clientes enterprise en sectores como healthcare, recursos humanos y educación.
  • Implementar backends complejos en Python/Django y desarrollar integraciones críticas (APIs, webhooks, servicios externos).
  • Realizar code reviews en componentes críticos, identificar deuda técnica y mitigarla.
  • Diseñar arquitecturas para propuestas comerciales, estimar esfuerzos y alcances técnicos.
  • Actuar como escalación técnica para tech leads y desbloquear cuellos de botella.
  • Desarrollar POCs y validar soluciones técnicas antes de implementación completa.
  • Presentar soluciones técnicas a clientes potenciales y documentar arquitecturas propuestas.
  • Establecer y promover mejores prácticas de código y arquitectura entre proyectos.

Perfil y experiencia requerida

Requisitos mínimos: más de 5 años de experiencia en desarrollo backend con Python/Django a nivel senior; al menos 2 años liderando técnicamente proyectos o equipos de desarrollo; experiencia demostrable diseñando arquitecturas para aplicaciones enterprise y sistemas complejos; dominio de AWS (EC2, RDS, S3, Lambda) y diseño de arquitecturas cloud; experiencia con PostgreSQL y diseño de bases de datos relacionales; APIs RESTful, integraciones con servicios externos y webhooks; capacidad para gestionar múltiples proyectos sin perder calidad; habilidades para comunicar decisiones técnicas a stakeholders técnicos y no técnicos; inglés conversacional para comunicación con clientes en USA; español nativo o fluido para trabajo con equipo LATAM; autonomía, ownership técnico y capacidad de trabajar sin micromanagement.

Requisitos deseables

Experiencia con Azure (App Services, Azure AD) y herramientas de DevOps. Conocimientos de React para comprender arquitecturas full-stack. Experiencia con Docker y Kubernetes. Implementación de CI/CD y prácticas DevOps. Participación en propuestas técnicas para clientes enterprise. Experiencia en healthcare (HIPAA) y fintech con requisitos de cumplimiento normativo. Capacidad de trabajar en un entorno distribuido y colaborar de forma proactiva con equipos en LATAM y USA.

Beneficios y entorno

  • Prestaciones de Ley
  • Trabajo 100% remoto desde cualquier país de LATAM
  • Proyectos diversificados y técnicamente desafiantes con clientes USA y México
  • Autonomía y ownership técnico real
  • Trabajo directo con el CEO en propuestas estratégicas
  • Equipo distribuido pero colaborativo
  • Oportunidad de influir en decisiones técnicas a nivel empresa

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Alluxi provides a computer for your work.
Informal dress code No dress code is enforced.
Gross salary $900 - 1200 Full time
Programador Back-end Python
  • Guinea Mobile SAC (Cuy Móvil)
Python Redis PostgreSQL Docker

Guinea Mobile SAC es una startup latinoamericana de tecnología en telecomunicaciones, fundada en 2019, con sede en Lima, Perú. Nos especializamos en desarrollar soluciones innovadoras que transforman y optimizan la experiencia móvil.

Los impulsores estratégicos clave de nuestro éxito son nuestra tecnología única, tanto en lo que respecta a las interfaces de usuario y el análisis de datos de última generación como la plataforma de tecnología operativa que se maneja.

Se encuentra en la búsqueda de 1 Programador Backend con gran dominio de Phyton

This offer is exclusive to getonbrd.com.

Funciones del cargo

  1. Servicios Python de alto rendimiento y mantenibles: manejo de async/await, tareas en background, timeouts, reintentos y optimización básica de recursos.
  2. APIs robustas y evolutivas: contratos claros, versionado, compatibilidad forward/backward, manejo de errores y límites de uso.
  3. Consistencia y resiliencia en sistemas distribuidos: workflows claros, deduplicación, reintentos con backoff y estrategias de compensación cuando aplique.
  4. Capa de datos a escala: buen modelado, índices, uso inteligente de caché, migraciones seguras e integridad de datos.
  5. Operabilidad y entrega continua: observabilidad integrada, SLOs básicos, CI/CD con pruebas y checks de calidad.

Requerimientos del cargo

Desarrollo con Python:

  • Experiencia construyendo servicios backend con Python (FastAPI, Django REST o Flask en producción).
  • Uso sólido de la stdlib (asyncio, logging, typing) y organización limpia de módulos.
  • Aplicación de Arquitectura Hexagonal, DDD y CQRS en proyectos reales o de práctica avanzada.
  • Diseño y consumo de APIs RESTful (gRPC como plus), manejo de lógica de negocio compleja, validaciones consistentes e idempotencia en endpoints críticos.
  • Clean Code + SOLID adaptado a Python; pruebas automatizadas (unitarias e integración) con pytest o unittest, mocks y criterio para aplicar TDD de forma pragmática.

Diseño de Arquitectura y Escalabilidad:

  • Contenedores con Docker y despliegue en Kubernetes o plataformas equivalentes.
  • Microservicios y comunicación asíncrona/event-driven (RabbitMQ/Kafka/NATS/Pub/Sub como plus).
  • Integración con PostgreSQL (SQLAlchemy, psycopg, migraciones con Alembic) y MongoDB (driver oficial o motor).
  • Uso de Redis como caché para alta concurrencia; diseño de claves, TTL y estrategias básicas de invalidación.
  • Observabilidad end-to-end: logs estructurados (logging/structlog), métricas (Prometheus) y trazas con OpenTelemetry.

Colaboración y Flujo de Trabajo:

  • Documentación clara de decisiones técnicas, arquitectura y endpoints (ADRs, OpenAPI/Swagger, diagramas C4).
  • Fluidez con Git bajo flujos colaborativos (feature branches, pull requests, code reviews).
  • Participación activa en Scrum/Kanban, entregas iterativas y proactividad para proponer mejoras técnicas y de producto.
  • Mentalidad de Solución: Personas que vean los problemas como oportunidades para diseñar y ejecutar soluciones creativas y efectivas.
  • Balance entre Velocidad y Estabilidad: Capacidad para entregar con rapidez sin comprometer la calidad ni la estabilidad del software.
  • Pasión por los Retos Técnicos: Interés genuino por enfrentar desafíos complejos y aprovecharlos como espacio de aprendizaje y mejora continua.
  • Flexible en la Colaboración: Valoramos a quienes se involucran donde pueden aportar, más allá de lo que indica su rol. Creemos que los equipos funcionan mejor cuando cada persona está dispuesta a sumar donde más se le necesita.
  • Cultura de Pruebas: Queremos fomentar una mentalidad donde las pruebas son parte del diseño y no un paso posterior. Valoramos saber cuándo aplicar TDD de forma práctica y cuándo priorizar velocidad sin perder calidad.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Gross salary $1300 - 1600 Full time
Desarrollador Back-end Python
  • Inversiones Vertice Limitada
  • Santiago (In-office)
Python PostgreSQL Git React

Inversiones Vertice Limitada es una empresa de innovación dedicada al desarrollo de productos de fiesta para el mercado nacional y también distribuidores en varios países. Actualmente estamos construyendo una plataforma de cotización y creación de productos impulsada por IA y un backend sólido que integre servicios de IA, bases de datos y APIs modernas. Nuestro equipo está enfocado en entregar soluciones escalables, con visión internacional y oportunidades de aprendizaje continuo. Buscamos un desarrollador que se una al equipo para colaborar en diseño de software, integraciones con APIs de LLMs, automatización y soluciones de e-commerce, contribuyendo a una plataforma pionera en su sector.

Official source: getonbrd.com.

Funciones principales

Desarrollar y mantener el backend en Python con FastAPI para soportar servicios de cotización y generación de productos mediante IA. Diseñar e implementar estructuras de datos en PostgreSQL, garantizar integraciones robustas con APIs de modelos de lenguaje (LLMs) y otros servicios, y gestionar el versionado de código con Git. Participar en el desarrollo frontend básico en React y colaborar con equipos de diseño, automatización y e-commerce para entregar soluciones integrales. Participar en revisiones de código, pruebas y despliegue continuo, y buscar oportunidades de aprendizaje para mejorar la eficiencia y la calidad del producto.

Perfil y experiencia deseados

Buscamos un/la desarrollador/a con ganas de aprender, que esté recién egresado o cursando los últimos semestres de ingeniería informática o carrera afín. Se valorará experiencia con Python backend (FastAPI), PostgreSQL, integración de APIs de inteligencia artificial y herramientas de automatización. Se requiere conocimiento básico de React y control de versiones con Git. No se necesita experiencia extensa; la actitud proactiva, la capacidad de trabajar en equipo y la voluntad de aprender son esenciales. Se valorará interés en IA, desarrollo de software orientado a productos y enfoque en soluciones innovadoras para el mercado de fiestas.

Competencias y habilidades deseables

Competencias técnicas: Python, FastAPI, PostgreSQL, RESTful APIs, integración con APIs de IA/LLMs, Git, fundamentos de React. Habilidades blandas: curiosidad, proactividad, capacidad de aprendizaje autónomo, trabajo en equipo y buena comunicación. Deseable experiencia previa en proyectos académicos o prácticas relacionadas con IA, automatización o desarrollo de productos de software. Interés en construir soluciones escalables y orientadas al usuario final.

Beneficios y contexto de la oferta

Formarás parte de un equipo creativo y comercial con visión de proyección internacional, trabajando en un rol totalmente presencial y clave para el desarrollo de una plataforma pionera en su sector.

Te integrarás directamente en iniciativas de diseño, automatización, e-commerce e inteligencia artificial de última generación, con importantes oportunidades reales para tu aprendizaje y crecimiento profesional dentro del equipo.

Este es un puesto ideal para quienes buscan un ambiente de trabajo retador, colaborativo y con enfoque hacia la innovación tecnológica aplicada.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Inversiones Vertice Limitada provides a computer for your work.
Informal dress code No dress code is enforced.

Sobre trabajos de Python

Ofertas de trabajo remoto para desarrolladores Python. Backend, Data Science, Machine Learning y automatización. Empresas internacionales que contratan en LATAM. En RemoteJobs.lat conectamos a profesionales de Latinoamerica con empresas que ofrecen trabajo 100% remoto. Todas nuestras ofertas permiten trabajar desde cualquier ciudad, con pagos en dolares o moneda internacional.

Rango salarial

$3,500 - $9,000 USD/mes

Posiciones abiertas

732

Ubicacion

100% Remoto LATAM

Tip: Tambien puedes buscar ofertas en skills relacionados como Django,

Rangos salariales de Python por seniority

Rangos estimados en USD/mes para contratos remotos con empresas internacionales. Varían según empresa, stack complementario y ubicación del cliente.

Nivel Años de experiencia Rango USD/mes
Junior 0-2 $3,500 - $4,875
Semi-Senior 2-4 $4,600 - $6,525
Senior 4-7 $6,250 - $8,175
Lead/Staff 7+ $7,625 - $9,000

Empresas que contratan Python remoto desde LATAM

Algunas compañías que históricamente han contratado perfiles de Python para trabajar 100% remoto desde Latinoamérica:

Mercado Libre Globant Auth0 Nubank Cloudwalk Stripe GitLab Crossover Toptal

Preguntas frecuentes

El rango típico para un Python remoto trabajando para empresas internacionales es $3,500 - $9,000 USD/mes. El monto exacto depende de la seniority, el país de la empresa y si el contrato es full-time o por proyecto.

Los perfiles más demandados de Python suelen combinar Django, Flask, Fastapi. Sumar uno de estos te abre más ofertas y suele aumentar el rango salarial entre 15% y 30%.

Para empresas USA/EU sí: nivel B2 mínimo para entrevistas técnicas. Hay alternativas en empresas LATAM (Mercado Libre, Globant, Rappi) o agencias como Toptal donde el inglés intermedio alcanza para arrancar.

Las 3 cosas que más mueven la aguja: (1) un GitHub público con 2-3 proyectos sólidos relevantes a Python, (2) un perfil de LinkedIn en inglés optimizado para reclutadores, y (3) postularte a 20+ ofertas por semana en lugar de 2-3.