We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Project Lead / Scrum Master (Remote – LATAM)
  • Confidential
  • Remoto 🌎
Full Time Salesforce

Role Overview

We are seeking an experienced Salesforce Project Lead / Scrum Master to join a U.S.-based technology consulting firm delivering complex Salesforce implementations for enterprise and high-growth clients.


This role is not entry-level. It requires hands-on experience leading Salesforce projects end-to-end, working directly with clients, technical teams, and stakeholders. You will serve as the operational and delivery bridge between business needs and technical execution, ensuring projects are delivered on time, within scope, and with high client satisfaction.


If you already know Salesforce and have real project management experience, this is an opportunity to step into a high-impact, fully remote role supporting U.S. clients.


Key Responsibilities

Salesforce Project Leadership

  • Lead Salesforce implementation projects from discovery through deployment and post-launch support.
  • Facilitate client discovery sessions with technical and functional stakeholders to define business needs and solution scope.
  • Translate client requirements into detailed functional requirements, user stories, and delivery plans.
  • Partner closely with Functional and Technical Leads to ensure accurate execution of Salesforce solutions.

Agile & Scrum Delivery

  • Plan and manage Agile and Scrum ceremonies including sprint planning, backlog grooming, daily standups, demos, and retrospectives.
  • Track sprint progress, velocity, burn-downs, and delivery milestones.
  • Ensure teams have the required Salesforce environments, sandboxes, licenses, and access to begin work.

Project Governance & Risk Management

  • Own project schedules, timelines, budgets, and change management.
  • Identify project risks early and implement mitigation strategies to prevent delivery or budget impact.
  • Prepare and deliver regular project status reports, burn reports, forecasts, and executive updates.
  • Escalate risks and blockers clearly and proactively to internal leadership and client stakeholders.

Client & Stakeholder Management

  • Act as the primary day-to-day point of contact for clients throughout the project lifecycle.
  • Build trusted client relationships by setting expectations, communicating clearly, and delivering consistently.
  • Support clients during and after implementation to ensure adoption and long-term success.

Required Skills & Experience (Non-Negotiable)

  • 2–5+ years of experience as a Project Manager or Project Lead, managing medium to large-scale projects.
  • Hands-on experience leading Salesforce implementations (this is required).
  • Strong knowledge of Salesforce environments, workflows, and implementation lifecycle.
  • Experience working with Agile and Waterfall project management methodologies.
  • Scrum Master certification or equivalent practical experience.
  • Proven ability to translate business needs into technical and functional requirements.
  • Strong stakeholder management and client-facing communication skills.
  • Excellent documentation, reporting, and presentation skills.
  • Advanced organizational, planning, and time management abilities.
  • Proficiency with Microsoft tools including Word, Excel, Outlook, Project, and SharePoint.
  • Ability to work independently in a fully remote environment aligned with U.S. time zones (CST/EST).

Nice to Have

  • Salesforce certifications.
  • Experience working in consulting or professional services environments.
  • Exposure to enterprise or multi-stakeholder Salesforce projects.

Why Join This Role?

  • Work with a highly collaborative, people-focused U.S. consulting team.
  • 100% remote role with long-term growth potential.
  • Opportunity to deepen expertise in Salesforce delivery, Agile leadership, and enterprise project management.
  • Thrive in an environment that values clarity, accountability, ownership, and operational excellence.


If you are an experienced Salesforce Project Manager / Scrum Master who already knows Salesforce and has successfully led implementation projects, we want to hear from you.


Apply now to be considered for this fully remote opportunity supporting U.S.-based clients.

Compensation details will be shared during the first interview.

VIEW JOB APPLY VIA WEB
Gross salary $3300 - 3600 Full time
Software Engineer Senior – Python & AI Integration
  • Maxxa
  • Santiago (Hybrid)
Python PostgreSQL Flask Microservices

Maxxa es una Fintech de Chile en etapa scaleup, afianzando nuestro posicionamiento regional en México.
Nuestra misión es eliminar la mortalidad de las pymes de Latam, construyendo tecnología que les habilite para acceder a financiamiento y ordenar sus finanzas y operación.

Cuidamos a nuestro activo más valioso: el equipo (Top 3 Building Happiness by Buk 2025) demostrando que el alto rendimiento convive con la confianza. Aquí aportas visión de ingeniería para potenciar una plataforma de impacto regional, que innova constantemente integrando IA y Data en sus procesos clave.

Somos sponsor de Platanus Hack 25 por una convicción: el talento real está donde se construyen cosas.
Vivimos en la intersección donde la agilidad del negocio encuentra la madurez técnica. Para sostener el crecimiento, las soluciones rápidas no bastan. Estamos en etapa de consolidación, priorizando discusiones de fondo: cada implementación debe fortalecer nuestra capacidad de escalar y ser saludable a largo plazo.

Find this job and more on Get on Board.

Funciones y responsabilidades

  • Impulsar la evolución del motor de scoring de financiamiento hacia una arquitectura escalable y de alto rendimiento, asegurando transparencia de reglas y algoritmos, y habilitando su configuración dinámica por parte de tomadores de decisión.
  • Colaborar con equipo de Data Analytics para optimizar y mantener pipelines de despliegue de modelos predictivos, garantizando infraestructura para integrar nuevos modelos de forma autónoma y escalable.
  • Investigar e integrar herramientas de IA en el ciclo de vida de desarrollo para optimizar tiempos, mejorar la calidad del código y potenciar las capacidades técnicas del equipo.
  • Apoyar y mejorar el workflow de apertura de créditos, incorporando controles y validaciones a lo largo del ciclo de vida de la operación, asegurando consistencia y trazabilidad desde la evaluación hasta el cierre.
  • Co-difundir la hoja de ruta tecnológica a mediano y largo plazo, asegurando arquitectura que soporte escalabilidad y expansión del negocio.
  • Liderar prácticas de ingeniería como Clean Architecture, pruebas automatizadas y revisiones de código, actuando como mentor técnico para perfiles menos experimentados.
  • Vigilar la tecnología con foco en IA y automatización y proponer pruebas de concepto que se traduzcan en mejoras de rendimiento y productividad.
  • Colaborar estrechamente con Producto, Data, Riesgo, Operaciones y Finanzas para traducir necesidades operativas complejas en soluciones tecnológicas eficientes.

Descripción y requisitos

Requisitos Técnicos y Académicos

  • Formación Académica:
    Ingeniero Civil en Computación, Ingeniería Civil Informática, Ingeniería Civil Industrial con minor en Tecnologías de la Información o Magíster en Ciencias de la Computación.
  • Experiencia Profesional:
    Mínimo 4 años de experiencia en desarrollo de software backend, con una capacidad demostrada para modelar e implementar lógica de negocio compleja y reglas de decisión.

Conocimientos Técnicos:

  • Lenguajes y Frameworks: Dominio experto de Python (Excluyente). Es deseable contar con experiencia en Flask y Pydantic.
  • Arquitectura y Diseño: Diseño sólido de APIs REST, Microservicios y aplicación de Clean Architecture. Deseable manejo de patrones de diseño.
  • Base de Datos: Manejo de SQLAlchemy y PostgreSQL. Fuerte capacidad para la elaboración de consultas complejas y optimización de performance.
  • Integración de IA/ML: Entendimiento funcional de librerías como scikit-learn, pandas o PyTorch. El foco es la lectura, carga e inferencia de modelos para su integración en el software (no el entrenamiento ni desarrollo de modelos).
  • Calidad de Software: Experiencia implementando pruebas unitarias (pytest o unittest) y de integración.
  • Fundamentos: Sólidos conocimientos en diseño y análisis de algoritmos.

Competencias Conductuales y Habilidades Blandas

  • Mindset de Aprendizaje Continuo: Curiosidad intelectual proactiva. Capacidad para investigar, aprender y adoptar rápidamente nuevas tecnologías (como herramientas de IA) y mantenerse actualizado en tendencias de la industria.
  • Liderazgo Técnico y Mentoría: Habilidad para guiar y elevar el nivel técnico del equipo mediante el ejemplo, la revisión de código y la transferencia de conocimientos, fomentando la colaboración sin necesidad de una jerarquía formal.
  • Comunicación y Puente Técnico: Capacidad para articular ideas complejas de forma clara, facilitando el entendimiento entre áreas técnicas y de negocio.
  • Adaptabilidad y Autonomía: Disposición para trabajar en entornos dinámicos, ajustando prioridades y proponiendo soluciones ante cambios en el negocio.

Habilidades y experiencia deseables

  • Integración con Burós de Crédito (ej: Equifax, Sinacofi) o fuentes de datos externas.
  • Participación en proyectos del sector Fintech o banca.
  • Colaboración en la implementación técnica de modelos de IA/Machine Learning.

Beneficios

Te unirás a una fintech donde tu esfuerzo y energía se ven recompensados.
Nos eligieron top 3 del ranking de The Building Happiness de Buk. ¡Tu bienestar es parte de nuestro desafío!

Beneficios:

  • Flexibilidad laboral: Trabajo mayormente remoto con 1 día presencial en nuestra oficina en Las Condes. Ofrecemos total flexibilidad para cambiar tu día o acordar semanas 100% remotas.
  • Tiempo de bienestar —¡con metas cumplidas, sales 30 min antes todos los días!— Días administrativos, tarde libre por cumpleaños y día de mudanza.
  • Asignación de almuerzo.
  • Un muy potente Seguro Complementario de salud, dental y vida (al pasar a indefinido).
  • Aguinaldos, Bonos de matrimonio, nacimiento, escolaridad, entre otros.
  • Capacitaciones continuas en UBITS para que nunca dejes de crecer.
  • En oficina corporativa, muchos beneficios: Snack Saludable todos los días, salita de descanso con cafetería ilimitada, actividades para compartir, ¡entre muchos más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Maxxa pays or copays health insurance for employees.
Computer provided Maxxa provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Maxxa offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Responsable de Operaciones / Tecnología - Remoto - Pago en USD
  • Capital Humano
  • 🇨🇴 Colombia - Remoto 🌎
Full Time Capacitación Base de Datos proyectos
Objetivo del puesto: Asegurar la continuidad operativa, estabilidad y seguridad de la infraestructura tecnológica, liderando el área de operaciones y gestionando entornos productivos sobre Azure. El objetivo del rol es administrar y optimizar plataformas, bases de datos, integraciones y servicios críticos, resolviendo incidentes técnicos complejos, coordinando despliegues en servidores IIS y garantizando el control de accesos, la gestión de certificados y dominios, así como la correcta implementación de proyectos y soluciones técnicas en articulación con las distintas áreas de la organización. Responsabilidades principales: - Administrar y mantener la infraestructura en la nube de Azure, asegurando su disponibilidad, escalabilidad y seguridad. - Gestionar y realizar despliegues a través de Azure DevOps, asegurando que los proyectos se implementen correctamente. - Supervisar la gestión de tickets, asignar tareas al equipo y asegurar la pronta resolución de incidentes operativos. - Resolver problemas relacionados con bases de datos (DBA) y analizar fallos en integraciones (SOAP, API). - Realizar despliegues en servidores IIS y administrar dominios y certificados SSL. - Participar en la planificación, ejecución y supervisión de proyectos relacionados con la infraestructura. - Colaborar con otras áreas de la empresa para asegurar la alineación de las soluciones técnicas con los objetivos comerciales. - Garantizar la seguridad de la infraestructura, incluyendo la gestión de accesos y la implementación de políticas de seguridad. - Proveer soporte interno a los equipos de trabajo, asegurando que las herramientas y sistemas estén operativos y funcionales. - Monitorear la continuidad operativa de los sistemas, identificando riesgos y gestionando acciones preventivas. - Colaborar con documentación y aprendizaje de funcionamiento de aplicaciones Legacy. Requisitos: - Experiencia sólida en la administración de infraestructura en Azure y manejo avanzado de Azure DevOps. - Conocimiento en bases de datos (SQL Server) y capacidad para resolver problemas de base de datos TSQL y administración. - Experiencia en la resolución de problemas de integraciones mediante SOAP y API. - Habilidad para analizar errores en aplicaciones Web. - Conocimiento en la administración de dominios y certificados de seguridad. - Experiencia en gestión de proyectos de infraestructura tecnológica. - Conocimiento avanzado en seguridad de sistemas y gestión de accesos. - Mantenimiento / actualización de fuente de datos de reportes (Power BI). Competencias clave: - Capacidad de liderazgo. - Compromiso con la organización. - Ganas de aprender e innovar. Ofrecemos: - Trabajo 100% remoto. - Pago en USD. - 15 días hábiles de vacaciones al año. - Día de cumpleaños libre. - Capacitación constante. - Contratación y beneficios Deel.
VIEW JOB APPLY VIA WEB
$$$ Full time
WFH Entry Level Travel Consultant
  • Beths Beautiful Destinations
  • Remoto 🌎
Full Time Herramientas modernas de planificación y booking de viajes (provistas)

📌 Rol: WFH Entry Level Travel Consultant

🌎 Ubicación: 100% remoto

💼 Tipo de Contrato: Flexible (Part-Time o Full-Time)

🎓 Formación: No especificado (Entry Level)


📋 Descripción General

Beths Beautiful Destinations busca un/a Entry Level Travel Consultant para un rol remoto y flexible. Ideal para personas apasionadas por los viajes que disfrutan ayudar a otros a planificar experiencias memorables. No se requiere experiencia previa en la industria; la empresa brinda training completo y herramientas modernas.


📋 Responsabilidades Principales

• Asistir a clientes en la planificación y reserva de vacaciones.

• Construir relaciones positivas y de largo plazo con clientes.

• Recomendar destinos, hoteles y experiencias.

• Crear itinerarios usando herramientas de viaje modernas.


🎯 Requisitos

• Gusto por el trato con personas y la tecnología.

• Pasión por los viajes.

• No se requiere experiencia previa en turismo.


🏖️ Beneficios

• Ingresos potenciales hasta $67K+.

• Descuentos en viajes.

• Seguro de responsabilidad para agentes de viajes.

• Website dedicada gratuita.

• Training integral y trabajo desde casa.

• Horarios flexibles (elegís tu schedule).

• FAM (familiarization) incluido con la mayoría de certificaciones.

VIEW JOB APPLY VIA WEB
$$$ Project
English Specialist (US Only) - Freelance AI Trainer Project
  • Invisible
  • Remoto 🌎
Project Computadora segura y conexión a internet confiable

📌 Rol: English Specialist – AI Trainer (General Specialist)

🌎 Ubicación: 100% remoto (US Only)

💼 Tipo de Contrato: Freelance / Contract

🎓 Formación: No especificado (early-career y recién graduados preferidos)


📋 Descripción General

Proyecto freelance para entrenar modelos avanzados de IA. El rol consiste en interactuar con sistemas de IA, evaluar respuestas por claridad y precisión, detectar errores y brindar feedback estructurado para mejorar el rendimiento del modelo. No se requiere experiencia previa en IA; sí curiosidad, pensamiento crítico y buena comunicación.


📋 Responsabilidades Principales

• Probar y evaluar outputs de IA en distintos temas.

• Revisar calidad, claridad y exactitud de respuestas.

• Documentar errores, inconsistencias o gaps.

• Colaborar en la mejora de prompts, tareas y métodos de evaluación.

• Comunicar feedback de forma clara y estructurada.


🎯 Requisitos

• Inglés avanzado (oral y escrito).

• Perfil detallista, crítico y con buena comunicación.

• Interés por IA y aprendizaje continuo.

• Experiencia en research, escritura, tutoría o problem-solving (plus).

• Residencia en EE. UU.


🏖️ Beneficios

• Pago: desde $19 USD/hora (según experiencia y ubicación).

• Trabajo remoto.

• Proyecto ideal para perfiles junior / entry level.

• Impacto directo en el desarrollo de IA.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • Growe
  • Remoto 🌎
Full Time SQL Tableau Google Sheets

📌 Rol: Data Analyst

🌎 Ubicación: Remoto (Anywhere)

💼 Tipo de Contrato: No especificado


📋 Descripción General

Growe busca un/a Data Analyst para transformar datos complejos en insights claros, visualizaciones y recomendaciones accionables para distintos stakeholders. El rol incluye análisis de performance (tráfico y unit economics), desarrollo de KPIs, soporte a forecasting y mejora continua de la calidad de datos y reporting.


📋 Responsabilidades Principales

• Traducir datos en insights, visualizaciones y recomendaciones para equipos de negocio y management.

• Construir, mantener y optimizar reportes en Tableau.

• Trabajar con múltiples fuentes: validar, limpiar y preparar datos para análisis.

• Detectar inconsistencias y gaps de calidad de datos y colaborar en su resolución.

• Analizar performance de tráfico y unit economics por región.

• Desarrollar KPIs y benchmarks en distintas dimensiones.

• Participar en soporte y mejora de modelos de forecasting.


🎯 Requisitos

• 3+ años de experiencia en data analytics.

• Dominio de SQL, Tableau y Google Sheets.

• Conocimiento sólido de KPIs y unit economics (CPA, LTV, conversion rates, ROMI, retention, etc.).

• Habilidad en validación de datos, estructuración de lógica de métricas y automatización de procesos.

• Inglés Upper-Intermediate.

VIEW JOB APPLY VIA WEB
$$$ Project
Virtual Assistant (Contractor)
  • Credit Suite
  • Remoto 🌎
Project C-Suite

📌 Rol: Virtual Assistant (Contractor) / Virtual Sales Assistant

🌎 Ubicación: 100% remoto

💼 Tipo de Contrato: Full Time (Independent Contractor / Freelancer)

🧑‍💻 Seniority: Entry Level


📋 Descripción General

Credit Suite busca un/a Virtual Sales Assistant proactivo/a para apoyar al equipo de ventas en outreach a leads, follow-ups y gestión de relaciones. Es un rol customer-facing y sales-facing, con contacto frecuente con ejecutivos, C-Suite y dueños de negocio, por lo que se requiere comunicación de nivel ejecutivo y inglés casi perfecto.


📋 Responsabilidades Principales

• Contactar nuevos leads con script provisto y agendar citas para Account Executives.

• Realizar check-ins quincenales con partners para detectar necesidades, brindar soporte o escalar al Account Executive.

• Dar seguimiento a clientes con citas agendadas (recordatorios y confirmación de asistencia).

• Apoyar proyectos especiales y tareas ad-hoc.

• Asistir con tareas adicionales para el éxito del equipo de ventas.


🎯 Requisitos

• Independent Contractor / Freelancer (aceptan fuera de EE. UU.).

• Experiencia previa en sales support, lead gen o customer service (preferida, no obligatoria).

• Inglés casi perfecto (nativo o fluido) con acento neutral.

• Comodidad hablando con Executives, C-Suite y Business Owners.

• Organización, multitasking y priorización.

• Perfil self-motivated, orientado a objetivos y con ganas de aprender en entorno dinámico.


🕒 Horario

• Full time, turno de 8 horas.

• Horario posible entre 9 AM y 7 PM ET (lunes a viernes, horario laboral regular).


🏖️ Beneficios / Lo que ofrecen

• Contrato full-time de largo plazo.

• Trabajo directo con liderazgo y tomadores de decisión.

• Sistemas y scripts claros para trabajar.

• Oportunidad de crecimiento en equipo performance-driven.

VIEW JOB APPLY VIA WEB
$$$ Project
Contributing Writer
  • Valnet Concept
  • Remoto 🌎
Project writing

📌 Rol: Contributing Writer (Freelance)

🌎 Ubicación: 100% Remoto

💼 Tipo de Contrato: Contracted (freelance)

🧩 Nivel: Entry Level

🏢 Empresa: CarBuzz


📋 Descripción General

CarBuzz busca escritores/as freelance para crear contenido original y atractivo sobre temas automotrices (breaking news, análisis de industria y car culture), publicando de forma regular y trabajando con editores para mantener calidad y engagement.


📋 Responsabilidades Principales

• Redactar artículos informativos y alineados a la audiencia de CarBuzz.

• Mantenerse al día con tendencias, noticias y lanzamientos de vehículos.

• Cumplir deadlines ajustados y entregar a tiempo.

• Colaborar con editores e incorporar feedback.


🎯 Requisitos

• Experiencia comprobable escribiendo (ideal: automotriz o tech).

• Excelente capacidad de investigación y contenido original bien fundamentado.

• Conocimiento sólido de autos, historia automotriz y tendencias del sector.

• Inglés muy bueno para explicar ideas complejas de forma clara y concisa.

• Autonomía para gestionar carga de trabajo y tiempos.


📎 Para incluir en la postulación (opcional)

• Portfolio, testimonios de clientes y experiencia relacionada con la industria.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst I
  • acorns
  • Remoto 🌎
Full Time SQL Databricks DBT Tableau Amplitude

📌 Rol: Data Analyst I

🌎 Ubicación: 100% Remoto (remote-first; acceso opcional a oficina en Irvine, CA)

💼 Tipo de Contrato: Full time

🧩 Departamento: Analytics

🏢 Empresa: Acorns


📋 Descripción General

Acorns busca un/a Data Analyst I para apoyar al equipo Core Experience (líneas de producto Investing y Banking). El rol usa datos para optimizar el customer journey, generar insights accionables y aportar al roadmap trabajando en conjunto con Product, Finance y Operations.


📋 Responsabilidades Principales

• Analizar experimentos de producto y colaborar en la ideación y evaluación rigurosa.

• Construir y mantener reportes y dashboards para Core Experience.

• Escribir y optimizar queries SQL complejas para análisis profundos.

• Usar Databricks y DBT para transformar datos en datasets accesibles.

• Diseñar y mantener dashboards en Tableau para KPIs de Investing y Banking.

• Monitorear comportamiento y performance con Amplitude para detectar fricciones y oportunidades.

• Definir prioridades con managers y equipos cross-funcionales (incl. infraestructura y herramientas).


🎯 Requisitos

• 3–5 años de experiencia en Analytics (ideal: producto o financial services).

• SQL fuerte + experiencia con visualización (ej. Tableau).

• Conocimientos de estadística y A/B testing / product experimentation.

• Familiaridad con Databricks, DBT y herramientas de product analytics como Amplitude.

• Capacidad para explicar hallazgos a stakeholders no técnicos (Finance/Operations).


🏖️ Beneficios

• Salario competitivo + stock options.

• Paquete completo de beneficios (familia incluido).

• Flexibilidad de ubicación, horario y PTO.

• 401(k) matching.

• Aporte mensual a cuenta Acorns + cuenta GoHenry para la familia.

• Recursos de mindfulness y financial wellness (Headspace, Addition Wealth).

• Programas de desarrollo (Acorns Career Development, Cornerstone, Roots Leadership).

• Community week onsite + eventos virtuales.


💰 Rango Salarial (base): USD $121,000 – $140,000 / año

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Revenue Operations Manager
  • AUTOMATTIC
  • Remoto 🌎
Full Time Salesforce Gong ChiliPiper dashboards de BI integraciones RevOps

📌 Rol: Senior Revenue Operations Manager

🌎 Ubicación: 100% remoto (global)

💼 Tipo de Contrato: Full time

💰 Salario: USD $140,000 – $200,000 (pago en moneda local)


📋 Descripción General

WooCommerce busca un/a Senior Revenue Operations Manager para construir y escalar la función de Revenue Operations desde cero. Este rol senior, como contributor individual, tendrá alto nivel de ownership e influencia, trabajando en estrecha colaboración con los equipos de Sales y Customer Success para crear sistemas, procesos y bases de datos que habiliten crecimiento predecible y toma de decisiones clara.


📋 Responsabilidades Principales

• Diseñar y escalar la base operativa de Revenue Operations (procesos, sistemas y data).

• Gestionar herramientas e integraciones como Salesforce, Gong y ChiliPiper.

• Construir dashboards, reportes y modelos de forecasting.

• Operativizar procesos de Sales y Customer Success (renewals, churn, expansión, health scoring).

• Definir modelos de territorios, cuotas, compensaciones y capacity planning.

• Analizar métricas clave como NRR, CAC, LTV, ASP y pipeline health.

• Dar soporte estratégico a pricing, packaging y performance de revenue.


🎯 Requisitos

• 6–8+ años de experiencia en Revenue Operations.

• Experiencia construyendo RevOps desde cero o en grandes resets operativos.

• Fuerte perfil analítico y data-driven.

• Dominio avanzado de Salesforce y herramientas RevOps.

• Experiencia práctica trabajando con datos (SQL y/o Python).

• Capacidad para comunicar insights estratégicos a liderazgo ejecutivo.

• Uso concreto de AI aplicado al trabajo operativo y analítico.


🏖️ Beneficios

• Trabajo 100% remoto con política de vacaciones abiertas.

• Salario competitivo global, ajustado por impacto y contribución.

• Beneficios según país.

• Entorno open-source, diverso y global dentro de Automattic.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • Xapo Bank
  • Remoto 🌎
Full Time SQL BigQuery (plus) Python Looker GCP

📌 Rol: Data Analyst

🌎 Ubicación: 100% Remoto (Worldwide)

💼 Tipo de Contrato: Full Time

🎓 Formación: No especificada


📋 Descripción General

Xapo Bank busca un/a Data Analyst para habilitar analytics orientado a mejores decisiones financieras, creando data products para Finance y Treasury y apoyando a otras áreas. El rol combina análisis profundo, requests ad-hoc y reporting financiero/regulatorio recurrente, en un entorno de prioridades cambiantes, asegurando precisión y “single source of truth”.


📋 Responsabilidades Principales

• Analizar data transaccional y performance financiera para generar insights que impulsen crecimiento.

• Comunicar hallazgos con visualizaciones, storytelling y recomendaciones accionables.

• Construir y mantener data pipelines end-to-end.

• Diseñar y mantener dashboards en Looker (no Looker Studio) para self-service analytics.

• Traducir preguntas de negocio a requerimientos técnicos de datos y acompañar a stakeholders en el uso de data.

• Mejorar eficiencia en Finance/Treasury con análisis y recomendaciones estratégicas.

• Asegurar data accuracy y mantener una única fuente de verdad en reporting.

• Automatizar y mejorar procesos con analytics y predictive modelling; proponer mejoras continuas.


🎯 Requisitos

• 3+ años en un rol dedicado de data analytics.

• SQL avanzado (BigQuery es una ventaja fuerte).

• Data modelling sólido.

• Python para data analytics.

• Inglés excelente (oral y escrito) + habilidades de comunicación/presentación a audiencias no técnicas.

• Organización para manejar múltiples proyectos y alta atención al detalle.

• Espacio de trabajo dedicado + internet confiable.

• Plus: Looker developer, experiencia en finanzas/fintech/crypto, GCP (BigQuery, Cloud Functions, Vertex AI).


🏖️ Beneficios

• Trabajo 100% remoto “work from anywhere”.

• Flexibilidad de horario y PTO flexible.

• Presupuesto anual para aprendizaje y desarrollo.

VIEW JOB APPLY VIA WEB
$$$ Full time
Creative Performance Specialist
  • Assetplan
  • Santiago (Hybrid)
SEO SEM SQL Graphic Design

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. El rol busca optimizar la generación de leads y el rendimiento de campañas digitales mediante experimentación creativa basada en datos.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Job opportunity published on getonbrd.com.

Funciones del cargo

Buscamos un perfil creativo–analítico, con fuerte orientación a resultados, que apoye a las distintas áreas de la compañía desde el diseño, análisis e implementación de creatividades y campañas, con foco en mejorar el performance de generación de leads calificados y optimizar resultados en medios digitales.

Este rol combina diseño, data y marketing digital, y tiene alta interacción con stakeholders internos y externos.

Te encargarás de:

  • Liderar reuniones creativas con áreas internas, levantando y priorizando requerimientos de diseño.
  • Autogestionar proyectos de diseño por objetivos, definiendo KPIs, metas y plazos.
  • Diseñar, evaluar e iterar metodologías de trabajo creativo orientadas a performance.
  • Diseñar y ejecutar campañas y creatividades digitales (previa validación de jefatura).
  • Analizar resultados de las creatividades y proponer mejoras continuas basadas en data.
  • Colaborar con equipos de marketing, ventas y growth para asegurar impacto en funnel y CAC.

Must have

  • Formación en Diseño Gráfico, Publicidad o carrera afín.
  • Al menos 4 años de experiencia en diseño digital / performance (seniority mid).
  • Portafolio audiovisual y gráfico.
  • Experiencia levantando insights accionables desde data de adquisición (SEM/SEO/paid social u otros) con foco en MQL → SQL.
  • Capacidad de armar y operar un sistema de experimentación full-funnel (hipótesis, priorización, medición, learnings).
  • Habilidad para levantar competencia + tendencias/benchmarks y convertirlos en oportunidades testeables.
  • Experiencia haciendo VOC con comerciales (preguntas típicas, objeciones, razones de descarte) y traducirlo a backlog.
  • Documentación rigurosa de experimentos (setup, resultados, decisión kill/iterate/scale).
  • Coordinación con IT/Producto/Data para habilitar herramientas, tracking e integraciones.

Nice to have

  • Capacidad de diseño (hands-on): manejo de Figma (y/o herramientas de diseño) para prototipos rápidos, wireframes, variantes simples y feedback directo al equipo creativo (deseable).

Lo que te ofrecemos

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.

  • Rol con impacto directo en resultados del negocio.
  • Espacio real para proponer, testear e iterar ideas creativas.
  • Ambiente colaborativo, desafiante y de aprendizaje continuo.
  • Beneficios como días extra de vacaciones, copago de seguro complementario, reajuste anual por IPC, bono por resultados de empresa, entre otros.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Quality Assurance Automatizador
  • Agilistik
  • Santiago (Hybrid)
UI Design Usabilidad Web design SQL

En Agilistik trabajamos con clientes líderes en Chile y LATAM principalmente en el área Retail, impulsando iniciativas de agilidad y desarrollo de software. Nuestro equipo se enfoca en entregar soluciones de alta calidad mediante prácticas de aseguramiento, pruebas automatizadas y manuales, con énfasis en la mejora continua. En este rol, participarás en proyectos desafiantes que requieren rigor, colaboración y enfoque en la experiencia del usuario, contribuyendo a la entrega de software confiable y escalable.

Find this job and more on Get on Board.

Funciones

  • Participar en la definición e implementación de planes de aseguramiento de calidad para proyectos de software.
  • Ejecutar pruebas automatizadas y manuales para validar requisitos y casos de uso.
  • Colaborar estrechamente con equipos de desarrollo, producto y arquitectura para identificar y reportar defectos de forma clara y oportuna.
  • Documentar resultados de pruebas, crear informes de calidad y apoyar en la priorización de tareas de corrección.
  • Contribuir a la mejora continua de procesos de QA y de la entrega de software, promoviendo buenas prácticas y estándares.
  • Participar en revisiones de cambios, pruebas de regresión y validación de soluciones en entornos de desarrollo, pruebas y producción.
  • Apoyar en la definición de criterios de aceptación y en la creación de casos de prueba reutilizables.
  • Mantener la trazabilidad de defectos y gestionar su seguimiento hasta su resolución.

Skills Excluyentes

  • Experiencia en pruebas automatizadas a servicios y APIs.
  • Lenguajes requeridos excluyentes Selenium, Cucumber, Cypress, SQL
  • Ejecución de pruebas garantizando integridad de datos en sistemas.
  • Conocimiento sólido de metodologías de pruebas de software y buenas prácticas de QA.
  • Ejecución de pruebas manuales.
  • Evaluación de consistencia visual entre diseño (Figma) y desarrollo.
  • Identificación de desalineaciones en tipografía, colores, íconos y espaciados.
  • Validación de navegación, interacción y microinteracciones.
  • Revisión de cumplimiento con principios de usabilidad.
  • Detección de fricciones desde la experiencia del usuario.
  • Colaboración con equipos de diseño para cerrar brechas con desarrollo.
  • Validación de interrupciones (llamadas, pérdida de red, cierre forzado, etc.).
  • Documentación precisa y clara de defectos.

Requisitos deseables

  • Conocimiento en pruebas de estrés y casos de uso.
  • Experiencia en automatizaciones pequeñas.
  • Conocimiento básico de APIs REST y validación de respuestas (Postman)

Beneficios

En Agilistik, valoramos a nuestro equipo y ofrecemos una serie de beneficios atractivos:
  • Seguro complementario de salud y seguro de vida para tu tranquilidad y la de tu familia.
  • Bonos especiales por aguinaldos en septiembre y Navidad, cada uno por CLP $100.000, además de una bonificación adicional por tu cumpleaños de CLP $50.000.
  • Oportunidades constantes de capacitación y certificaciones ágiles, fomentando un desarrollo profesional continuo y de alto impacto.
Estamos comprometidos con crear un entorno de trabajo que priorice tanto tu bienestar como tu crecimiento profesional. Únete a nuestro equipo para ser parte de proyectos desafiantes y un ambiente colaborativo y dinámico.

Partially remote You can work from your home some days a week.
Health coverage Agilistik pays or copays health insurance for employees.
Computer provided Agilistik provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Semi Senior Data Engineer (Enfocado en Calidad de Datos)
  • 23people
Python SQL Business Intelligence Big Data
Equifax Chile es la filial local de Equifax Inc., compañía global de datos, analítica y tecnología presente en 24 países. Desde 1979 operamos en Chile, entregando soluciones en riesgo crediticio, análisis de datos, identidad y ciberseguridad a más de 14.000 empresas.Nuestro Centro de Desarrollo en Santiago (SDC) lidera la transformación digital de Equifax a nivel global, concentrando cerca del 60% de sus desarrollos tecnológicos. Promovemos una cultura de colaboración, innovación y excelencia técnica, donde el talento local crea soluciones de impacto mundial.

Apply through Get on Board.

Funciones del cargo

¿Qué harás en tu día a día?
Responsabilidades Clave:
  • QA de Migración a la Nube: Participar en la ejecución de pruebas para la migración de datos desde bases de datos on-premise (MySQL/Oracle) hacia BigQuery/GCP.
  • Validación Multinivel: Ejecutar y desarrollar casos de prueba que validen tres niveles críticos:
    1. Integridad del dato crudo (Source vs. Target).
    2. Correcta aplicación de la lógica de transformación ELT.
    3. Cumplimiento de las reglas de negocio definidas en la nueva arquitectura.
  • QA de Procesos Analíticos: Colaborar en la validación de resultados de procesos posteriores a la carga, como el cálculo de scores y segmentaciones, asegurando la coherencia de los datos con los resultados esperados de negocio.
  • Automatización de Pruebas: Evolucionar desde validaciones manuales hacia la automatización. Desarrollar scripts en Python para automatizar comparaciones de datos y aprender a crear/mantener DAGs en Apache Airflow para pipelines de validación de calidad de datos.
  • Monitoreo y Reportería: Utilizar Looker Studio para crear y mantener dashboards de control de calidad de datos que permitan visualizar discrepancias, métricas de salud del dato y el progreso de la migración para los stakeholders.

Requerimientos del cargo

Skills

  • Cloud: Airflow, Cloud Composer, Glue, Lambda u otros.
  • Lenguajes de Programación (al menos manejar uno nivel usuario intermedio):
    • Python
    • SQL/BigQuery
  • Experiencia en análisis y analitica.
  • Looker Studio / PowerBI / Tableau / otros.
  • Conocimiento sobre el manejo de datos: **Importante**
    • Conocimiento sobre los conceptos de ambientes de datos.
    • Conocimiento sobre los conceptos de calidad de datos.
    • Conocimiento de modelado de procesos y flujos de datos
Contrato indefinido desde el inicio con 23people - Tiempo del proyecto 6 meses con posible extensión
Modalidad: Home Office con residencia en Chile.
Experiencia: Desde 2 años en adelante
Horario: Lunes a viernes de 9:00 a 18:00 hrs

Deseables

  • Conocimientos en las tecnologías: Spark - DataProc / DataFlow
  • Experiencia en procesos de manejo de datos:
    • Procesamiento en lotes
    • Procesamientos distribuidos.

Beneficios

Algunos de nuestros beneficios
  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1000 - 1500 Full time
QA Semi Senior
  • Coderslab.io
  • Guayaquil (In-office)
Agile SQL QA Scrum
Company: Coderslab.io es una empresa tecnológica en crecimiento que ayuda a las organizaciones a transformarse y crecer mediante soluciones innovadoras. Formarás parte de un equipo diverso compuesto por más de 3,000 empleados a nivel global, con oficinas en América Latina y Estados Unidos. Trabajarás con los mejores talentos del sector en proyectos desafiantes e innovadores que impulsarán tu carrera.
Proyecto: Participarás en un programa de aseguramiento de calidad (QA) para software en un entorno ágil. Colaborarás con equipos de desarrollo y producto para garantizar la entrega de software estable, confiable y de alta calidad, empleando prácticas modernas de pruebas y automatización según las necesidades del proyecto.

Apply without intermediaries from Get on Board.

Funciones principales

Como QA Semi Senior, serás responsable de apoyar la verificación y validación de software a lo largo del ciclo de vida del desarrollo. Tus tareas incluirán:
Experiencia de 2 años trabajando como QA / Analista de Pruebas.
Experiencia comprobable en:
Pruebas funcionales y de regresión sobre aplicaciones web.
Diseño y documentación básica de casos de prueba.
Conocimiento práctico de:
Uso de alguna herramienta para pruebas de APIs (Postman o similar).
SQL básico para consultar y validar datos.
Familiaridad trabajando en equipos ágiles (Scrum o Kanban) o ciclos iterativos de desarrollo.
Conocimiento básico de servicios y entornos en la nube (AWS), orientado a la comprensión de
ambientes de prueba, despliegues, endpoints y análisis de incidencias.
Habilidad para documentar hallazgos de forma clara y ordenada.

Perfil buscado

Buscamos un/a QA Semi Senior con actitud proactiva y enfoque en la calidad. Debes tener experiencia práctica en pruebas de software, capacidad para comprender requerimientos, y ganas de crecer en un entorno ágil y tecnológicamente avanzado. Valoramos la atención al detalle, habilidades de análisis y comunicación efectiva para trabajar con equipos distribuidos.
Requisitos técnicos y de experiencia:
  • Experiencia comprobable en pruebas de software (funcionales, de regresión, exploratorias).
  • Conocimiento de metodologías de QA y herramientas de gestión de pruebas y defectos.
  • Habilidad para diseñar y ejecutar casos de prueba y planes de prueba; creación de matrices de trazabilidad.
  • Familiaridad con conceptos de automatización de pruebas y frameworks relevantes (según el stack del proyecto).
  • Capacidad para trabajar en entornos ágiles (Scrum/Kanban) y colaborar con equipos de desarrollo y producto.
  • Buena capacidad de análisis, enfoque en calidad, organización y gestión del tiempo.
  • Espíritu de equipo, comunicación clara y proactividad para identificar mejoras de calidad.
  • Idioma: español e inglés técnico deseable para lectura de documentación y herramientas.
Nivel de experiencia: Semi Senior (aproximadamente 2-4 años en QA o rol similar).

Requisitos deseables

Experiencia en pruebas automatizadas o scripting para pruebas, conocimiento de herramientas de automatización, experiencia en entornos multinacionales, certificaciones en QA (por ejemplo, ISTQB) y habilidades para trabajar en un entorno remoto/global. Capacidad para adaptarse rápidamente a nuevas tecnologías y procesos, y para aportar ideas de mejora continua en QA y calidad de producto.
Experiencia de 2 años trabajando como QA / Analista de Pruebas.

Beneficios y entorno

La posición es de contratación a plazo fijo para un proyecto de 7 meses, con modalidad de trabajo en remoto global y oportunidades de crecimiento dentro de Coderslab.io. El equipo ofrece mentoría de profesionales experimentados, acceso a tecnologías de punta y un entorno que promueve el desarrollo profesional continuo. Comprometidos con un equilibrio entre vida personal y laboral, y con un enfoque en proyectos desafiantes en mercados internacionales. Si estás interesado, continúa investigando las oportunidades dentro de nuestra organización y prepárate para colaborar con especialistas de alto rendimiento.

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
QA Functional Specialist – Oracle Flexcube
  • Coderslab.io
  • Santiago (Hybrid)
Analytics SQL Continuous Integration QA

Coderslab.io es una empresa que ayuda a las compañías a transformarse y crecer mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en plena expansión, con más de 3,000 empleados en todo el mundo, con oficinas en Latinoamérica y Estados Unidos. Integrarás equipos diversos conformados por los mejores talentos tecnológicos, involucrados en proyectos innovadores y desafiantes que impulsen tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados en sus respectivas áreas mientras trabajas con tecnologías de vanguardia.

© getonbrd.com. All rights reserved.

Funciones del cargo

Ejecución de Pruebas Core (Flexcube): Diseñar y ejecutar casos de prueba integrales sobre Oracle Flexcube, validando la parametrización de productos, flujos transaccionales (Maker/Checker) y la correcta generación de asientos contables.

Validación de Procesos Batch: Monitorear y certificar la ejecución de mallas de procesos masivos (EOD/BOD), validando mediante SQL y análisis de logs que la integridad de los datos se mantenga tras el procesamiento.

Liderazgo en SAT (Site Acceptance Testing): Coordinar y ejecutar las pruebas de aceptación en la infraestructura final del cliente, actuando como el último filtro de calidad técnica y funcional antes del paso a producción.

Análisis de Integración: Investigar fallos en la comunicación entre el Core Bancario y sistemas satélites (Interfaces, APIs, ESB), diferenciando errores de datos, configuración de ambiente o código.

Gestión de Defectos y Evidencia: Documentar hallazgos críticos en herramientas de gestión (Jira/ALM) y generar las actas de conformidad técnica necesarias para la aprobación regulatoria o del negocio.

Requerimientos del cargo

Experiencia en Core Bancario: Experiencia comprobable (mínimo 2-3 años) operando y probando sobre Oracle Flexcube (módulos de Clientes, Cuentas, Préstamos o Depósitos).

Dominio Técnico de Base de Datos: Manejo avanzado de SQL (PL/SQL) para realizar consultas complejas, validación de datos en el backend y verificación de resultados de procesos Batch.

Manejo de Entornos Productivos/SAT: Experiencia previa participando en despliegues, pruebas de humo (Smoke Tests) y validaciones en entornos de pre-producción o directamente en sitio con el cliente.

Herramientas de Logs y Orquestación: Capacidad para leer logs de servidor (Unix/Linux) y familiaridad con herramientas de planificación de tareas como Control-M o Jenkins.

Mentalidad Analítica y de Riesgos: Capacidad para entender el impacto financiero de un defecto y priorizar las pruebas basándose en el riesgo del negocio bancario.

Condiciones

Modalidad de contratación: Plazo fijo

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior QA Engineer
  • Improving South America
JavaScript Ruby Ruby on Rails Python

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Exclusive offer from getonbrd.com.

Job functions

En Improving South America estamos buscando un/a QA Engineer Senior para sumarse a nuestro equipo y ser una pieza clave en la calidad, estabilidad y confiabilidad de nuestros productos. La persona que se incorpore tendrá un rol activo en la definición de procesos de calidad, automatización de pruebas y acompañamiento de los equipos de desarrollo.

Qualifications and requirements

  • Al menos 3 años de experiencia práctica en automatización de pruebas, tanto API como UI.
  • Experiencia sólida en frameworks de testing automatizado con Selenium.
  • Capacidad para escribir código de pruebas automatizadas.
  • Amplia experiencia en detección, análisis y resolución de bugs.
  • Conocimiento profundo de buenas prácticas de QA.
  • Experiencia con una o más de las siguientes tecnologías:
    • AWS, Kubernetes, GraphQL
    • Python, Ruby, Rails
    • React, JavaScript
    • Jenkins, Jira, GitHub
    • SQL
  • Nivel de ingles: B2+

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Commvault Backup Specialist
  • Servicio Latam
  • Bogotá (In-office)
MySQL SQL Oracle Virtualization

Descripción del puesto:

SERVICIO LATAM es una empresa líder en el sector de tecnologías de la información, dedicada a brindar soluciones innovadoras y eficientes a sus clientes. Nuestra empresa se destaca por fomentar un ambiente de trabajo colaborativo, con oportunidades de crecimiento profesional y desarrollo personal para todos los empleados.

En Servicio Latam nos encontramos en la búsqueda de Commvault Implementador para unirse a un proyecto tecnológico en crecimiento. La posición está orientada a perfiles con experiencia y con sólidos conocimientos en Red Hat OpenShift, que puedan brindar acompañamiento técnico y soporte al equipo.

Apply at the original job on getonbrd.com.

Job functions

El Implementador Commvault es el profesional responsable de diseñar, implementar, configurar y administrar soluciones de respaldo, recuperación y protección de datos utilizando la plataforma Commvault. Su objetivo principal es garantizar la continuidad del negocio, la seguridad de la información y la recuperación eficiente ante desastres, tanto en infraestructuras on-premise, virtuales y en la nube.

Trabaja en estrecha colaboración con equipos de infraestructura, seguridad y aplicaciones para asegurar que las políticas de backup y recuperación cumplan con los requerimientos técnicos, normativos y del negocio.

Qualifications and requirements

Funciones principales

Implementar y configurar soluciones de backup, restore y disaster recovery con Commvault.

Diseñar arquitecturas de respaldo según criticidad, retención y cumplimiento normativo.

Administrar respaldos de:

Servidores físicos y virtuales (VMware, Hyper-V).

Bases de datos (SQL Server, Oracle, MySQL, etc.).
Aplicaciones empresariales.

Configurar políticas de retención, deduplicación y encriptación de datos.

Ejecutar y validar pruebas de restauración y planes de recuperación ante desastres (DRP).

Monitorear respaldos, analizar fallos y realizar ajustes para optimizar desempeño.

Gestionar integraciones con nube (Azure, AWS, Google Cloud).

Elaborar documentación técnica y procedimientos operativos.

Brindar soporte de segundo o tercer nivel sobre la plataforma.

Asegurar el cumplimiento de buenas prácticas y normativas de seguridad de la información.

Desirable skills

Herramientas y tecnologías

  • Backup y protección de datos

Commvault Complete Data Protection

Commvault Command Center

Commvault Media Agents y Storage Policies

  • Infraestructura

Windows Server / Linux

VMware vSphere / Hyper-V

Almacenamiento SAN / NAS

  • Bases de datos

Microsoft SQL Server

Oracle

MySQL / PostgreSQL

  • Nube

Microsoft Azure

AWS

Google Cloud Platform (GCP)

Conditions

Tipo de contrato: Prestación Servicios

Salario: Abierto según experiencia

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Semi Senior
  • HF Solutions
  • Santiago (Hybrid)
PostgreSQL SQL Oracle QA
HF Solutions es una empresa consultora en tecnología especializada en diseño y desarrollo de software sobre la nube y mobile. Nos enfocamos en sistemas transaccionales y plataformas móviles, entregando soluciones escalables y de alto rendimiento para clientes diversos. Nuestro objetivo es acompañar la transformación digital de las organizaciones mediante soluciones innovadoras y co-creación con ética y cercanía. Contamos con un equipo interdisciplinario que entiende los desafíos organizacionales y ofrece soluciones flexibles y eficientes que generan valor sostenido.
El equipo de QA se integrará a un entorno ya en operación, con varias aplicaciones en producción, y trabajará en un marco colaborativo con analistas y equipos técnicos. La empresa promueve el desarrollo profesional y la mejora continua dentro de proyectos desafiantes que requieren atención a la calidad y cumplimiento normativo.

Exclusive to Get on Board.

Principales responsabilidades

  • Ejecutar pruebas funcionales y de regresión en un ecosistema de aproximadamente 30 aplicaciones, asegurando que los cambios y nuevas funcionalidades no afecten la operación existente.
  • Validar solicitudes relacionadas con plazos normativos y requerimientos de negocio, asegurando trazabilidad y cumplimiento.
  • Diseñar y ejecutar casos de prueba en sistemas existentes (mantención), documentando resultados y evidencias.
  • Detectar, documentar y dar seguimiento a incidencias, priorizando según impacto y criticidad.
  • Validar datos y flujos sobre bases de datos PostgreSQL, SQL Server y Oracle, verificando integridad y consistencia de la información.
  • Trabajar bajo metodología Kanban, gestionando múltiples solicitudes en paralelo y adaptándose a cambios de contexto.
  • Colaborar estrechamente con analistas y el equipo técnico para asegurar entregas de alta calidad y alineadas a estándares.

Requisitos

Buscamos un/a QA Pleno/Semi Senior para integrarse a un equipo dinámico con alta demanda operativa. El/la candidato/a ideal debe tener experiencia en mantención de sistemas productivos, conocimiento en testing funcional y capacidad para trabajar con múltiples aplicaciones simultáneamente. Se valorará experiencia en entornos con normativas y buena comunicación en equipo.
Conocimientos clave: testing funcional, bases de datos PostgreSQL, SQL Server y nociones de Oracle. Capacidad de aprendizaje rápido, adaptación a nuevos sistemas, y habilidades interpersonales para colaborar con analistas y equipos de desarrollo. Se requiere autonomía, organización y capacidad para gestionar el tiempo y cambiar de foco sin perder calidad.

Deseables

Experiencia previa en entornos con exigencias normativas y regulaciones específicas del sector. Historial en proyectos con múltiples aplicaciones en producción y experiencia trabajando en equipos multidisciplinarios. Conocimiento adicional de herramientas de automatización de pruebas y suites de integración continua.

Beneficios

  • Seguro Complementario de Salud y Dental
  • Aguinaldos en Fiestas Patrias y Navidad
  • Jornada Lun - Jue 9:00 - 18:00 hrs, Vie - 17:00 hrs
  • Modalidad Híbrida: 3 días a la semana presencial; Ubicación: Las Condes, Santiago.

VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Talana
PostgreSQL Git DevOps Virtualization
Empresa dedicada a la gestión de negocios busca un DevOps Engineer con mentalidad disruptiva, capaz de construir puentes sólidos en automatizadas.
Tu misión será ser responsable de diseñar y mantener la infraestructura que soporta nuestros productos, optimizando el ciclo de vida del software mediante la automatización. Tu foco estará en la resiliencia de los sistemas y en la colaboración estrecha con los equipos de desarrollo para implementar arquitecturas modernas en la nube.

Apply to this job directly at getonbrd.com.

Funciones del cargo

  • Automatización Integral: Diseñar y ejecutar tareas de automatización para el aprovisionamiento, gestión de configuración y despliegues (CI/CD).
  • Arquitectura On-Prem: mantención y gestión de infraestructura on-prem a través de Proxmox
  • Arquitectura Cloud: Implementar y escalar infraestructuras en ambientes AWS, colaborando en el diseño de nuevos productos.
  • Cultura de Observabilidad: Monitorear servicios y recursos utilizando herramientas de telemetría para asegurar el rendimiento y la disponibilidad.
  • Seguridad y Escalabilidad: Garantizar que cada componente de la infraestructura cumpla con estándares de seguridad y pueda crecer según la demanda del negocio.
  • Resolución de Problemas: Actuar como nivel avanzado en el análisis y solución de incidentes complejos en sistemas distribuidos.

Requerimientos del cargo

  • Experiencia: Mínimo 5 años en roles de DevOps, SRE o Infraestructura.
  • Sistemas Operativos: Conocimientos avanzados tanto en Windows Server como en entornos GNU/Linux.
  • Cloud & IaaS: Conocimientos avanzados operando con Proxmox, además de familiaridad con AWS. Manejo transversal de Infraestructura como Código (IaC) con herramientas como Docker y Docker Swarm.
  • Stack CI/CD: Operación fluida de herramientas como GitHub Actions o similares para la automatización de pipelines.
  • Telemetría: Experiencia con sistemas de monitoreo y alertas (Elasticsearch + Kibana)
  • Bases de Datos: Capacidad para realizar consultas y gestión básica de tabla en
    mariaDB o postgreSQL.
  • Control de versión: amplia experiencia utilizando git
  • Formación: Estudios avanzados o finalizados en Ingeniería Civil Informática, Computación o carreras afines.
Competencias Blandas
  • Comunicación Adaptativa: Capacidad para traducir conceptos técnicos complejos a stakeholders no técnicos al discutir plazos o soluciones.
  • Mentalidad de Equipo: Disposición para compartir conocimientos, mentorizar y colaborar de forma abierta.
  • Proactividad e Innovación: Ganas constantes de aprender y proponer nuevas formas de hacer las cosas.
  • Foco en Automatización: Pasión por eliminar tareas repetitivas y mejorar la experiencia de desarrollo (DevEx).

Plus que te hará destacar

  • Motivación y fascinación por la automatización de procesos, y migración hacía arquitecturas basadas en contenedores.
  • Experiencia en gestión de entornos Windows en base a “Remote Windows Services” y servidores de licencia.
  • Familiaridad con arquitecturas de Microservicios y APIs REST.
  • Experiencia utilizando AWS AppStream o similares.

Condiciones/Beneficios

  • Modalidad Híbrida: 1 o 2 días presenciales en nuestra oficina de Santiago, manteniendo el resto de la semana en remoto.
  • Flexibilidad: Apertura para viajar o trabajar fuera de Santiago en ocasiones excepcionales según sea necesario.
  • Salud: Seguro complementario
  • Días libres: 3 MyDay adicionales a las vacaciones.
  • Co-creación Ágil: No te sumas a una estructura rígida; buscamos que nos ayudes a definir y mejorar nuestras metodologías de trabajo basándonos en tu feedback.
  • Entorno de Innovación: Espacio para experimentar con las últimas herramientas del mercado.

VIEW JOB APPLY VIA WEB
$$$ Full time
Analista QA
  • Usercode SpA
  • Santiago (Hybrid)
JavaScript Excel SQL NoSQL

Usercode SpA es una empresa tecnológica enfocada en el desarrollo de software a medida para instituciones públicas y privadas. Aunque por regla general operamos de manera remota, según las necesidades del cliente y las características de cada proyecto pueden requerirse actividades presenciales, como reuniones, hitos de validación, entregas de producto u otras instancias de coordinación. En estos casos, el colaborador debe contar con disponibilidad para asistir presencialmente cuando sea solicitado.

Nuestro equipo, distribuido entre Chile, México y Perú, trabaja en tecnologías Cloud, automatización y digitalización de procesos para entregar soluciones de clase mundial. Buscamos ampliar nuestro equipo de QA para garantizar la calidad de plataformas web desarrolladas, colaborando estrechamente con el equipo de desarrollo, el arquitecto de software y el jefe de proyecto.

© Get on Board.

Funciones del cargo

Como Analista de Aseguramiento de Calidad de Software, trabajarás en el aseguramiento de la calidad de software para nuestros desarrollos de software a medida. Además, trabajarás en estrecha colaboración con el equipo de desarrollo de software junto con los demás desarrolladores, arquitecto de software y jefe de proyecto. Los proyectos desarrollados son mayoritariamente plataformas web.

El cargo reporta directamente al jefe de proyecto de Usercode, todas las mañanas se realiza una daily para conversar sobre avances y posibles bloqueos del día anterior. Durante el día, todo el equipo trabaja en sus actividades planificadas pudiendo conectarse a una videollamada con todo o parte del equipo de desarrollo para reuniones de trabajo y/o aclarar dudas.

  • Entender los requisitos del negocio leyendo requerimientos y participando en reuniones de levantamiento con clientes.
  • Desarrollar planes de prueba y casos de prueba; generar datos de prueba y ejecutar pruebas manuales conforme al plan.
  • Detectar, documentar y gestionar incidencias; colaborar con el equipo de desarrollo para su resolución y generar informes de avance y cierre de pruebas.
  • Diseñar, desarrollar y mantener scripts de prueba para automatización; participar en la creación y ejecución de pruebas automatizadas.
  • Trabajar de forma proactiva para asegurar la calidad del software entregado y apoyar la mejora continua de procesos de QA.

Experiencia excluyente:

  • Estudios relacionados al Desarrollo de Software y Aseguramiento de Calidad de Software.
  • Al menos 5 años de experiencia en Aseguramiento de Calidad de Software.
  • Capacidad de análisis y comprensión de requerimientos y procesos de negocios.
  • Tener disponibilidad para trabajar full time.

¿Qué tienes que saber excluyentemente a nivel técnico?

Conocimientos en sistemas de gestión de la calidad y normas de calidad.

Manejo de herramientas básicas de software (Excel).

Conocimiento básico en lenguajes de programación Javascript, SQL y NoSQL.

Descripción y habilidades

Buscamos un profesional con experiencia en Aseguramiento de Calidad de Software para proyectos web a medida. Debes tener capacidad de análisis de requerimientos y procesos de negocio, visión detallista y orientación a resultados. Si bien la modalidad de trabajo es principalmente remota y de tiempo completo, según las necesidades del cliente y las características de cada proyecto pueden requerirse actividades presenciales, como reuniones, hitos de validación, entregas de producto u otras instancias de coordinación, por lo que se solicita contar con disponibilidad para ello.

Se requieren conocimientos en sistemas de gestión de calidad y normas de calidad, manejo de herramientas básicas como Excel y conocimientos básicos de lenguajes de programación como JavaScript, SQL y NoSQL. Se valorará la proactividad, la capacidad de trabajo en equipo y la autonomía.

Requisitos deseables

Experiencia mínima de 5 años en QA y experiencia con pruebas automatizadas. Conocimientos en entornos de pruebas, gestión de incidencias y generación de informes de calidad. Certificaciones en QA o pruebas de software serán consideradas puntos a favor. Capacidad para comprender requerimientos de negocio complejos y traducirlo en planes de prueba efectivos.

Beneficios

Disfrutarás de días extras de vacaciones y una modalidad 3x5 que otorga días libres adicionales, además de un día libre especial por cumpleaños, cambio de domicilio o fallecimiento de mascota. Contamos con pago de certificaciones seleccionadas para potenciar tu desarrollo profesional, pausas activas colaborativas, aguinaldo y una cultura que promueve el crecimiento y la calidad de vida laboral.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2200 - 3000 Full time
QA Automation Engineer
  • Ria Money Transfer
  • Santiago (Hybrid)
JavaScript Java C Agile
Ria Money Transfer, a business segment of Euronet Worldwide, Inc. (NASDAQ: EEFT), delivers innovative financial services including fast, secure, and affordable global money transfers to millions of customers along with currency exchange, mobile top-up, bill payment and check cashing services, offering a reliable omnichannel experience. With over 600,000 locations in nearly 200 countries and territories, our purpose remains to open ways for a better everyday life.
We believe we can create a world in which people are empowered to build the life they dream of, no matter who they are or where they are. One customer, one family, one community at a time.
We’re looking for a QA Engineer in Santiago, Chile, to help ensure the quality and reliability of our software through thorough testing and validation. Ideal candidates are detail-oriented, analytical, and passionate about delivering top-quality products.

Apply to this job through Get on Board.

Job functions

  • Design, develop, and maintain scalable automation frameworks for functional, regression, integration, and performance testing across web, mobile, and API layers.
  • Create robust, reusable test scripts using modern automation tools and languages (e.g., Selenium, Playwright, Cypress, REST-assured, etc.).
  • Integrate AI-powered testing tools (e.g., model-based testing, intelligent defect prediction, self-healing scripts) to enhance test coverage and reduce manual effort.
  • Implement CI/CD-integrated test pipelines using platforms like Azure DevOps, GitHub Actions, or Jenkins to enable continuous testing and rapid feedback loops.
  • Collaborate closely with developers, product owners, and data scientists to align test strategies with evolving product requirements and AI-driven features.
  • Perform intelligent defect triaging using bug tracking tools (e.g., Azure Boards, Jira) and link issues to test failures and root causes.
  • Continuously optimize test execution by applying parallelization, containerization (e.g., Docker), and cloud-based test environments.
  • Stay current with emerging trends in AI-assisted testing, autonomous QA, and DevTestOps to drive innovation in quality engineering practices.
  • Deliver actionable insights through detailed test reports, dashboards, and analytics to inform stakeholders and guide release decisions.

Position Requirements

  • Bachelor’s degree in Computer Science, Information Technology, or a related field.
  • Experience: You have proven work experience (min 3 years) in Mobile App Testing and Web Browser Testing.
  • Tech Stack: Ideally, you have knowledge of following points:
    • Programming Language & Frameworks: Basic knowledge in Java, JavaScript, C#, TestNG, Selenium.
    • Databases & OS used: MySQL, MariaDB, Windows, Linux, RedHat, CentOS
    • Tools & Utilities: Notepad++, Git, MySQL client, SoapUI and Postman
    • Debug & Test Programs: FinSim and PostMan
    • Protocols: JSON, SOAP and REST
  • Excellent analytical and problem-solving skills.
  • Strong attention to detail and a commitment to delivering high-quality software.
  • Good understanding of Agile/Scrum development methodologies.
  • Strong communication skills in both English and Spanish.

Benefits

  • Free Life Insurance
  • Supplemental Medical Insurance and Dental Insurance
  • Birthday day off
  • Various discounts as a member of Caja Los Andes
  • Euronet Stock Purchase Plan (NASDAQ)
  • Annual salary reviews
  • Agreement with Smart Fit (Gym)

Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ria Money Transfer pays or copays health insurance for employees.
Computer provided Ria Money Transfer provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
DBA Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
SQL Virtualization Amazon Web Services Azure
En BC Tecnología, somos una consultora de TI que administra portafolio, desarrolla proyectos y realiza outsourcing y selección de profesionales para clientes en los sectores financiero, seguros, retail y gobierno. Diseñamos equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, con enfoque en clientes, metodologías ágiles y desarrollo de productos. Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno colaborativo que promueve el aprendizaje y la mejora continua. Ubicados en Las Condes, ofrecemos un modelo híbrido que combina trabajo remoto y presencia en oficina para un adecuado equilibrio trabajo-vida.

Apply to this posting directly on Get on Board.

Funciones principales

  • Administrar y monitorear bases de datos SQL / SQL Server.
  • Implementar y gestionar políticas de respaldo y recuperación.
  • Optimizar consultas y realizar tuning de bases de datos.
  • Gestión de usuarios, roles y permisos.
  • Aplicar parches y actualizaciones de seguridad.
  • Dar soporte a equipos de desarrollo y resolver incidentes de BD.
  • Documentar procedimientos y buenas prácticas.

Perfil y experiencia

Buscamos un/a DBA Semi Senior para entregar excelencia en la administración de bases de datos y apoyo a operaciones y proyectos. Requisitos: Ingenierías en Informática, Sistemas o carrera afín; mínimo 3 años de experiencia en administración de bases de datos SQL Server; dominio de SQL avanzado; experiencia en entornos SQL Server, GCP y On-Premise; experiencia en replicación, clustering y alta disponibilidad; herramientas de monitoreo y performance tuning; conocimiento en seguridad de datos. Deseable experiencia en entornos Cloud (GCP, AWS, Azure) y manejo de procedimientos almacenados y scripting. Proactividad, trabajo en equipo, orientación a resultados y capacidad de aprendizaje continuo.

Deseables

Experiencia adicional en entornos Cloud (GCP, AWS, Azure), scripting y automatización, conocimiento de DevOps y prácticas de seguridad avanzadas. Fuertes habilidades analíticas, de resolución de problemas y comunicación para interactuar con equipos de desarrollo y negocio.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Cloud Support Engineer
  • Improving South America
Python MySQL Linux Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply from getonbrd.com.

Funciones del cargo

Estamos buscando contratar a un Ingeniero de Soporte Cloud que sea experto en resolución de problemas, aprenda rápido, sea entusiasta, altamente motivado y capaz de brindar una excelente experiencia de soporte mientras ayuda a que los clientes empresariales tengan éxito con sus nubes basadas en open-source. En esta posición, el ingeniero interactuará con los ingenieros SysAdmin/DevOps del cliente y los asistirá en la resolución de problemas que surjan en su entorno OpenStack/Kubernetes, manteniendo un alto nivel de cumplimiento de SLA. Este rol implica aprendizaje continuo y perfeccionamiento de habilidades en OpenStack y Kubernetes.

Como Ingeniero de Soporte Cloud, serás responsable del soporte técnico y la consultoría para la creciente base de clientes reportando al Global Cloud Support Manager, cumpliendo con las siguientes responsabilidades:

  • Monitoreo de la cola de tickets (5%)
  • Resolución independiente de problemas de clientes (50%)
  • Explicar y revisar problemas a través de Zoom (5–7%)
  • Mantenimiento de la base de conocimiento/documentación (10%)
  • Capacitación (uno a uno, estudio personal, capacitaciones/handovers) (10%)
  • Reuniones (5–7%)
  • Proyectos (reportes, automatización, customer success, desarrollo de procesos) (10%)

Requerimientos del cargo

  • Conocimiento práctico de los componentes de OpenStack, su arquitectura y su flujo de datos (indispensable).
  • Conocimiento de tecnologías satélite de OpenStack (MySQL, OVS, RabbitMQ, namespaces de red, hipervisores, etc.).
  • Comprensión de clústeres Kubernetes y experiencia práctica resolviendo problemas en clústeres Kubernetes en producción.
  • Más de 3 años de experiencia manejando escalaciones de clientes mediante respuestas por portal, videollamadas (Webex, Zoom, etc.) o teléfono para resolver casos o escalaciones según sea necesario.
  • Excelentes habilidades de comunicación oral y escrita.
  • Experiencia en administración Linux y conocimiento de subsistemas de almacenamiento y redes.
  • Buen entendimiento de tecnologías de virtualización como KVM, libvirt, Xen.
  • Conocimientos básicos de redes: TCP/UDP, DNS, DHCP, ICMP y direccionamiento IP.
  • Competencia en programación y scripting en Python, Bash, awk o sed.
  • Contar con un nivel de inglés intermedio-avanzado o avanzado (indispensable para realizar reuniones y llamadas en inglés).

Opcionales

  • SDN (OVS/OVN), flujo de control de OpenStack, herramientas de gestión de configuración, Golang, AWS, EKS, CKA, Terraform, PCA

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VIEW JOB APPLY VIA WEB
Gross salary $2400 - 3200 Full time
Cloud Engineer AWS + Python
  • CoyanServices
Python Agile SQL Virtualization

CoyanServices ofrece una oportunidad 100% remota para profesionales en LATAM en modalidad freelance/tiempo completo orientada a migración y desarrollo de soluciones de automatización inteligente con IA. El proyecto principal se enfoca en la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure), con énfasis en IA y automatización cognitiva. Buscamos desarrollar agentes digitales, microservicios y APIs dentro del ecosistema AWS/Azure, integrando modelos de lenguaje (LLMs) y CI/CD para garantizar escalabilidad, rendimiento y cumplimiento en entornos ágiles. El rol colabora estrechamente con clientes y equipos de desarrollo para entregar soluciones robustas y operativas de alto impacto.

Apply exclusively at getonbrd.com.

Objetivos del rol

  • Apoyar la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure) con enfoque en inteligencia artificial.
  • Desarrollar agentes digitales y microservicios que integren automatización, APIs y modelos de lenguaje (LLMs).
  • Implementar soluciones de IA conversacional y marcos de automatización cognitiva que optimicen procesos operativos.
  • Asegurar buenas prácticas de desarrollo, escalabilidad y cumplimiento dentro de metodologías ágiles.

Responsabilidades

  • Migrar procesos de Automation Anywhere hacia soluciones en AWS y Azure.
  • Desarrollar agentes digitales y automatizaciones con enfoque en Machine Cognitive Processing (MCP).
  • Crear microservicios y APIs dentro del ecosistema AWS (API Gateway, AppSync).
  • Diseñar e implementar prompts efectivos para integrar soluciones con LLMs (AWS Bedrock, Azure OpenAI).
  • Desplegar e integrar aplicaciones en AWS/Azure, garantizando su estabilidad y rendimiento.
  • Participar en el análisis de requerimientos del cliente y definición técnica de soluciones.
  • Aplicar buenas prácticas de desarrollo, versionamiento y metodologías ágiles (Scrum/Kanban).

Requisitos Técnicos

  • Lenguajes: Python (requerido)
  • Nube: AWS (requerido)
  • Experiencia en bases de datos SQL (requerido).
  • Experiencia en Automation Anywhere (deseable).
  • Conocimientos en AWS Connect, Lambda, Azure Cognitive Services (deseable).
  • Familiaridad con AWS Bedrock o Azure OpenAI para soluciones de IA conversacional (deseable).
  • Experiencia en NoSQL (deseable).
  • Conocimiento en procesos operativos y automatización.
  • Experiencia con CI/CD (CloudFormation) y despliegues en entornos cloud.
  • Metodologías ágiles (Scrum/Kanban).

Deseables

Perfil Profesional:

  • Experiencia: 3–5 años en desarrollo de software.

Habilidades blandas:

  • Autonomía y proactividad.
  • Capacidad analítica para la resolución de problemas.
  • Comunicación efectiva con clientes y equipos técnicos.
  • Adaptabilidad a nuevas tecnologías y entornos cambiantes.
  • Orientación al trabajo colaborativo y resultados.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Analista QA
  • SONDA
  • Santiago (Hybrid)
Agile SQL DevOps QA

SONDA es una empresa líder en transformación digital de la región, dedicada a impulsar soluciones tecnológicas que transformen negocios y mejoren la vida de las personas. Buscamos sumar a nuestro equipo de QA un analista que ayude a garantizar la calidad de productos y procesos, colaborando estrechamente con equipos de desarrollo, operaciones y negocio para entregar software confiable y alineado a requerimientos. En este rol, participarás en iniciativas de control de calidad técnico y de proceso, promoviendo prácticas que mejoren la eficiencia, trazabilidad y trazabilidad de pruebas a lo largo del ciclo de vida del software.

Apply to this job at getonbrd.com.

Funciones

  • Trabajar como miembro de la división de control de calidad técnica y de proceso.
  • Aplicar principios de ingeniería para desarrollar métodos y procedimientos que mantengan y mejoren los estándares de calidad del producto.
  • Diseñar sistemas de registro y análisis de los niveles de calidad del software.
  • Desarrollar requisitos y técnicas de inspección de control de calidad del producto e interpretar tendencias para tomar acciones correctivas.

Descripción

  • Formación: Titulado en Ingeniería en Informática, Ciencias de la Computación, Ingeniería de Software u otra profesión afín.
  • Conocimientos: gestión de proyectos tradicionales y ágiles; ejecución de pruebas funcionales y técnicas; dominio de SQL Server para validación de datos y pruebas de base de datos (JOINs, constraints, índices, integridad referencial).
  • Pruebas: experiencia en pruebas funcionales, de regresión, de integración, rendimiento y seguridad; pruebas automatizadas (Selenium, Postman, JMeter, Newman, PyTest).
  • Metodologías: trabajo en entornos ágiles (Scrum/Kanban) o mixtos; herramientas como JIRA, Azure DevOps, TestLink o Zephyr; gestión de defectos, trazabilidad y reportes de QA.
  • Certificaciones: ISTQB Foundation o superior; deseables CSQA, ICP-TST, Selenium/JMeter/DevOps QA.

Requisitos deseables

  • Certificación ISTQB o equivalente y/o experiencia en certificaciones de automatización de pruebas.
  • Experiencia práctica en automatización de pruebas y en entornos de DevOps.
  • Habilidad para trabajar de forma colaborativa en equipos multidisciplinarios, con enfoque en calidad y mejora continua.

Beneficios

En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.

Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.

Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.

El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.

Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.

Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage SONDA pays or copays health insurance for employees.
Computer provided SONDA provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks SONDA offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $1300 - 1700 Full time
DevOps Azure Engineer
  • Finmarkets
Linux DevOps Virtualization Docker
Finmarkets es una empresa de tecnología líder en su sector, enfocada en el desarrollo de soluciones móviles y web innovadoras. El equipo de DevOps colabora para construir una infraestructura robusta y escalable que soporte aplicaciones críticas y servicios en la nube. Buscamos un/a profesional que contribuya a la automatización, la entrega continua y la optimización de procesos, reduciendo tiempos de implementación y mejorando la resiliencia de nuestras plataformas. El candidato trabajará en proyectos que abarcan desde la gestión de pipelines de CI/CD hasta la orquestación de servicios en Microsoft Azure, con foco en seguridad, rendimiento y coste-efectividad. Únete a un entorno dinámico y orientado a resultados, con oportunidades de aprendizaje y crecimiento dentro de una empresa en pleno crecimiento.

© getonbrd.com.

Funciones principales

Como DevOps Azure Engineer, serás responsable de diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD) en Azure, asegurando entregas rápidas y confiables. Colaborarás con equipos de desarrollo para definir arquitecturas escalables y automatizar infraestructuras mediante IaC (Terraform/ARM). Gestionarás la monitorización, la seguridad y la optimización de costes de las soluciones en la nube, garantizando alta disponibilidad y tolerancia a fallos. Crearás y mantendrás pipelines de pruebas automatizadas, configuración de entornos y gestión de secretos. Participarás en la definición de políticas de seguridad y cumplimiento, y en la mejora continua de procesos operativos. Administrarás servicios de Azure (App Services, AKS, Azure Functions, SQL Database, Storage, Key Vault, Monitor) y coordinarás el despliegue de microservicios, contenedores y tecnologías de automatización.

Perfil y experiencia

Requisitos: experiencia sólida en DevOps con Azure, implementación de pipelines de CI/CD, administración de infraestructuras como código y knowledge de contenedores (Docker/Kubernetes). Habilidades en scripting (PowerShell, Bash) y experiencia con herramientas de monitorización (Azure Monitor, Application Insights) y gestión de costes en la nube. Se valorará conocimiento en seguridad en la nube, incluidas prácticas de gestión de secretos y cumplimiento. Competencias blandas: pensamiento crítico, capacidad para resolver problemas, proactividad y excelente comunicación. Se busca un/a profesional orientado/a a resultados, con capacidad para colaborar en equipos multifuncionales y adaptarse a un entorno dinámico.

Requisitos deseables

Certificaciones de Azure (AZ-204, AZ-400, AZ-303/304 o equivalentes) son valoradas. Experiencia en automatización con herramientas como Terraform, Ansible o Puppet. Conocimiento de arquitecturas de microservicios, CI/CD para pipelines de despliegue en Azure y experiencia en soluciones de backup y recuperación ante desastres. Experiencia adicional en desarrollo de aplicaciones en .NET o Node.js y gestión de bases de datos SQL/NoSQL se considera un plus.

Beneficios

Beneficios de Finmarkets: una semana adicional de vacaciones al año para promover un balance saludable entre vida personal y laboral. Día libre en el cumpleaños para celebrar esa fecha especial. Bono anual basado en la materialización de proyectos, incentivando el compromiso y el logro de objetivos. Además, ofrecemos un entorno de trabajo colaborativo, oportunidades de aprendizaje y crecimiento profesional, seguro de salud y planes de bienestar.

Health coverage Finmarkets pays or copays health insurance for employees.
Computer provided Finmarkets provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Finmarkets gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Analista de Aseguramiento de Calidad de Software
  • Usercode SpA
JavaScript Excel SQL NoSQL
Usercode SpA es una empresa tecnológica 100% remota, especializada en desarrollo de software a medida para instituciones públicas y privadas. Nuestro foco está en tecnologías Cloud, automatización y digitalización de procesos. Contamos con un equipo distribuido entre Chile, México y Perú y trabajamos con herramientas de colaboración como Slack, Meet/Hangouts y Monday. Nuestro objetivo es entregar productos de clase mundial para clientes diversos, con un enfoque en calidad, innovación y crecimiento profesional de nuestro equipo.

Apply to this job through Get on Board.

Funciones del cargo

Como Analista de Aseguramiento de Calidad de Software, trabajarás en el aseguramiento de la calidad de software para nuestros desarrollos de software a medida. Además, trabajarás en estrecha colaboración con el equipo de desarrollo de software junto con los demás desarrolladores, arquitecto de software y jefe de proyecto. Los proyectos desarrollados son mayoritariamente plataformas web.
El cargo reporta directamente al jefe de proyecto de Usercode, todas las mañanas se realiza una daily para conversar sobre avances y posibles bloqueos del día anterior. Durante el día, todo el equipo trabaja en sus actividades planificadas pudiendo conectarse a una videollamada con todo o parte del equipo de desarrollo para reuniones de trabajo y/o aclarar dudas.
Responsabilidades:
  • Entender los requisitos del negocio: leer requerimientos y participar en reuniones de levantamiento de requisitos con clientes.
  • Desarrollar planes y casos de prueba; generar datos de prueba y ejecutar pruebas manuales conforme al plan.
  • Detectar defectos, documentar, reportar y gestionar incidencias, colaborando con el equipo de desarrollo para su resolución.
  • Generar informes de prueba (avance y cierre).
  • Automatización de pruebas: diseñar, desarrollar y mantener scripts de prueba; participar en la creación y ejecución de pruebas automatizadas.

Descripción

Buscamos un/a Analista de Aseguramiento de Calidad de Software con al menos 5 años de experiencia para un rol 100% remoto. Reportarás directamente al jefe de proyecto y colaborarás estrechamente con desarrolladores, arquitecto de software y otros stakeholders. Realizarás pruebas funcionales y no funcionales en plataformas web, contribuyendo a asegurar la calidad y la confiabilidad de los productos entregados a clientes. Participarás en reuniones de levantamiento de requerimientos y estarás involucrado en todo el ciclo de pruebas, desde la planificación hasta la entrega de informes y métricas de calidad.

Requerimientos del cargo
Experiencia excluyente:
  • Estudios relacionados al Desarrollo de Software y Aseguramiento de Calidad de Software.
  • Al menos 5 años de experiencia en Aseguramiento de Calidad de Software.
  • Capacidad de análisis y comprensión de requerimientos y procesos de negocios.
  • Tener disponibilidad para trabajar full time.
¿Qué tienes que saber excluyentemente a nivel técnico?
Conocimientos en sistemas de gestión de la calidad y normas de calidad.
Manejo de herramientas básicas de software (Excel).
Conocimiento básico en lenguajes de programación Javascript, SQL y NoSQL.
Lo que buscamos en ti:
  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Beneficios

Ofrecemos un entorno de trabajo 100% remoto, brindando flexibilidad para adaptarse a necesidades presenciales puntuales de clientes. Disfrutarás de días extras de vacaciones y una modalidad laboral 3x5 que otorga días libres adicionales, además de un día libre especial por cumpleaños, cambio de domicilio o fallecimiento de mascota. Proporcionamos pagos para certificaciones seleccionadas para potenciar tu desarrollo profesional. Promovemos pausas activas colaborativas para el bienestar del equipo y entregamos aguinaldos como parte de nuestros beneficios. Todo esto enmarcado en una cultura que fomenta el crecimiento y la calidad de vida laboral.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
Vacation over legal Usercode SpA gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2500 Full time
DevOps Senior Freelance
  • CoyanServices
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

Apply only from getonbrd.com.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1200 - 1800 Full time
QA Funcional
  • TCIT
  • Santiago (Hybrid)
Agile SQL QA Scrum
En TCIT somos una empresa líder en desarrollo de software en modalidad cloud, con más de 9 años de experiencia y presencia en proyectos internacionales, incluyendo colaboraciones con partners tecnológicos en Canadá. Buscamos incorporar a nuestro equipo de QA Funcional para colaborar en soluciones de alto impacto que permitan transformaciones digitales sostenibles para nuestros clientes. El área de QA está integrada en un entorno ágil, donde la calidad se garantiza desde la planificación, diseño y ejecución de pruebas, trabajando con tecnologías de última generación y procesos de mejora continua.

Apply to this job without intermediaries on Get on Board.

Funciones y responsabilidades

El/la QA Funcional será responsable de garantizar la calidad de las soluciones de software a través de pruebas funcionales exhaustivas, con foco en la experiencia del usuario y la estabilidad del sistema. Sus principales funciones incluyen:
  • Diseñar, crear y mantener casos de prueba funcionales basados en requisitos y criterios de aceptación.
  • Ejecutar pruebas manuales y documentar resultados, identificando defectos y priorizando su corrección junto al equipo de desarrollo.
  • Colaborar con PO y DevOps para definir criterios de liberación y estrategias de regresión.
  • Participar en la automatización de pruebas cuando sea posible, asegurando cobertura de procesos críticos.
  • Contribuir a la mejora continua de procesos de QA y a la adopción de buenas prácticas de calidad.
  • Realizar pruebas de humo, regresión y exploratorias para validar nuevas funcionalidades y correcciones.
  • Comunicar de forma clara y precisa los hallazgos y proponer soluciones viables.
  • Participar en revisiones de especificaciones y pruebas de aceptación de usuario (UAT).
Se trabajará en un entorno internacional con equipos distribuidos y proyectos de alta complejidad, por lo que se requiere proactividad, capacidad de aprendizaje y buena comunicación.

Perfil y habilidades requeridas

Buscamos un/a profesional con sólido historial en aseguramiento de la calidad funcional, capaz de comprender requerimientos de negocio y traducirlos en pruebas efectivas. El/la candidato/a ideal debe contar con:
  • Experiencia mínima de 3 años en testing funcional de aplicaciones web y/o móviles.
  • Conocimiento de metodologías ágiles (Scrum/Kanban) y herramientas de gestión de pruebas.
  • Habilidad para diseñar casos de prueba, definir criterios de aceptación y ejecutar pruebas manuales con alta atención al detalle.
  • Capacidad para identificar riesgos, documentar defectos con claridad y colaborar en su resolución.
  • Conocimiento de herramientas de seguimiento de incidencias (Jira u equivalent) y gestión de pruebas (TestRail, Zephyr u otros).
  • Comprensión básica de SQL para validaciones de datos y verificación de resultados en base de datos.
  • Buen nivel de comunicación en español; se valora dominio del inglés para interacción con equipos internacionales.
  • Actitud proactiva, orientada al aprendizaje continuo y a la mejora de procesos de QA.
Se valorarán certificaciones en pruebas de software y experiencia en pruebas de integración/conectores entre sistemas.

Habilidades y experiencia deseadas

Desirable pero no obligatorio: experiencia con pruebas automatizadas, conocimiento de herramientas como Selenium, Playwright o similares; experiencia en pruebas de rendimiento; familiaridad con entornos cloud y configuraciones de CI/CD; capacidad para trabajar de forma autónoma y en equipo, y habilidades para documentar de forma estructurada y clara.

Conditions

Partially remote You can work from your home some days a week.
Computer provided TCIT provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
SRE Semi Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go DevOps

En TCIT, lideramos proyectos de Ingeniería y Automatización para avanzar en la fiabilidad y escalabilidad de nuestras plataformas en la nube. Buscamos profesionales SRE con interés en colaborar estrechamente con equipos de desarrollo y de operaciones para construir y fortalecer pipelines de CI/CD, infraestructuras declarativas con IaC (principalmente Terraform) y soluciones de observabilidad. Formarás parte de iniciativas que abarcan desde la implementación de prácticas de resistencia hasta la mejora continua de runbooks y procesos de incidentes, con foco en la mejora de la SRE Gobierno y la entrega de servicios robustos para clientes internos y externos. Si te apasiona la confiabilidad, la automatización y el trabajo en equipo, eres la persona indicada para unirte a TCIT y acompañar nuestra misión de transformar digitalmente a través de soluciones innovadoras.

Official source: getonbrd.com.

Funciones y responsabilidades principales

  • Ingeniería Práctica: Desarrollar y mantener pipelines de CI/CD, desplegar infraestructura con Terraform y escribir scripts (Python/Go/Bash) para automatizar tareas operativas.
  • Configuración de observabilidad: Implementar dashboards, alertas y logs en Datadog para nuevos y existentes servicios basándose en SLOs definidos.
  • Operación y Soporte: Participar en guardias on-call, resolver incidentes y apoyar a los equipos de desarrollo aplicando prácticas de fiabilidad.
  • Ejecutar y mejorar runbooks, participar en análisis post-mortem y proponer acciones de mejora para aumentar la resiliencia del sistema.
  • Colaboración y transferencia de conocimiento: Actuar como par técnico para SREs en formación, documentar procedimientos y participar en PRRs para validar implementaciones.
  • Trabajar de forma colaborativa en equipo, compartiendo buenas prácticas y asegurando que las soluciones queden bien documentadas y fáciles de mantener.

Descripción y requisitos técnicos

Buscamos SREs intermedios con experiencia sólida en entornos en la nube y un fuerte enfoque en fiabilidad y automatización. Requisitos clave:

  • Plataformas Cloud: experiencia práctica en Google Cloud Platform (GKE, IAM, GCE, Cloud SQL); experiencia deseable en AWS.
  • IaC y Automatización: Terraform como herramienta principal; experiencia con Ansible o similar es un plus.
  • Programación y scripting: Python o Go para automatización; Bash para scripting en Linux.
  • Contenedores y orquestación: Kubernetes (deployments, services, ingress, configmaps, secrets) y Docker.
  • CI/CD y DevOps: experiencia en pipelines con GitLab CI, Jenkins o Bitbucket Pipelines.
  • Observabilidad y monitoreo: Datadog (preferido), Prometheus/Grafana u otros; comprensión de logs, métricas y trazas.
  • Habilidades blandas: excelente trabajo en equipo, comunicación clara, proactividad y autonomía en tareas definidas.

Además, valoramos la capacidad de colaborar en documentos técnicos, participar en PRRs y apoyar a SREs en formación a través de prácticas de liderazgo situacional.

Requisitos deseables y cualidades

Se valorará experiencia adicional en desarrollo de software, experiencia en migraciones a la nube, conocimiento de herramientas de automatización avanzada y una mentalidad de mejora continua. Se espera que los candidatos demuestren adaptabilidad, habilidades para resolver problemas complejos y capacidad para priorizar en entornos dinámicos y de alta presión.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Si te sumas a TCIT, formarás parte de una comunidad apasionada por la revolución digital y proyectos con impacto social.

VIEW JOB APPLY VIA WEB
$$$ Full time
Engineer QA
  • TIMINING
Agile Excel SQL QA
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

© getonbrd.com.

Responsabilities and Tasks

Buscamos un QA Engineer con experiencia en aseguramiento de calidad de software para un entorno minero. El candidato ideal debe comprender el negocio, los usuarios y las soluciones tecnológicas desarrolladas para garantizar que las pruebas agreguen valor al producto final.
Principales Funciones:
  • Diseño y ejecución de pruebas: Definir planes de prueba, desarrollar y ejecutar casos de prueba funcionales, de performance y exploratorias para validar el software.
  • Gestión de defectos: Identificar, documentar y gestionar errores, colaborando con el equipo de desarrollo en su resolución y prevención.
  • Participación en el desarrollo ágil: Definir criterios de aceptación, refinar historias de usuario y participar en reuniones de equipo.
  • Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
  • Mejora continua y actualización: Optimizar estrategias de prueba, evangelizar buenas prácticas de QA y mantenerse al día con tendencias del sector.
  • Lineamientos QA: Cumplir con los lineamientos QA de la empresa y aportar su conocimiento para evolucionar los lineamientos en pos de obtener un producto de mejor calidad.

Description

Ingeniero en Computación o Informática o minería
1 a 3 años de experiencia
Tests funcionales, de aceptación, exploratorios, de performance, de regresión.
Frameworks ágiles: pair programing, peer review, TDD, BDD.
SQL
Excel avanzado

Desirable Skills

Scripting básico
Conocimiento de lenguaje C++ / Go
Conocimiento de PowerBI
Ofimatica

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2700 - 3500 Full time
DevOps
  • Coderslab.io
JavaScript Python Redis Node.js
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPSpara unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply at the original job on getonbrd.com.

Funciones del cargo

• Diseñar, implementar y mantener pipelines de integración y entrega continuas
(CI/CD).
• Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de
vida del desarrollo de software.
• Automatizar procesos de infraestructura y despliegue de aplicaciones.
• Administrar y mantener la infraestructura en la nube y servidores.
• Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

• Dominio en administración de servicios en la plataforma AWS, incluyendo
Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, IAM Role, S3, EC2, ECS, Secret
Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API
Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions.
• Experiencia en construcción de infraestructura como código (IaC) con Terraform y
Cloudformation (herramientas excluyentes).
• Experiencia en despliegue de aplicaciones móviles offline.
• Experiencia con GitHub como gestor de código fuente y GitHub Actions como
herramienta de despliegue.
• Experiencia en análisis de código estático con SonarCloud.
• Experiencia en desarrollo de código con Python y Node.js con objetivo
operacional.
• Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
• Habilidades de trabajo en equipo, autogestión, proactividad y comunicación
efectiva.
• Conocimientos en bases de datos NoSQL y bases de datos embebidas

VIEW JOB APPLY VIA WEB
Gross salary $3900 - 4600 Full time
Lead Data Scientist (Growth Engine) Chile
  • Checkr
  • Santiago (Hybrid)
Data Science Growth B2B SaaS

Checkr está construyendo un centro de innovación en Santiago para impulsar nuestro motor de Crecimiento (Growth Engine) con impacto global. Este proyecto combina Ciencia de Datos, Ingeniería y Growth de Producto para optimizar adquisición, activación y retención de usuarios. Liderarás la hoja de ruta experimental y trabajarás estrechamente con equipos en Estados Unidos para cerrar la brecha entre matemática avanzada, GenAI y métricas de negocio. Serás el motor técnico que diseñe experimentos rigurosos, determine métricas clave y escale soluciones de IA para acelerar la conversión y reducir churn. Tu trabajo conectará análisis, modelos predictivos y pipelines operacionales que permiten decisiones basadas en datos y resultados de negocio tangibles.

Apply to this job opportunity at getonbrd.com.

Funciones y responsabilidades

  • Propiedad del Motor de Crecimiento: definir métricas clave, construir y optimizar el pipeline de experimentación (A/B testing) de alta velocidad para incrementar la conversión y disminuir la deserción.
  • GenAI a Escala de Producción: diseñar, entrenar y desplegar modelos basados en LLMs y herramientas GenAI; automatizar insights, prototipos de modelos predictivos y flujos de trabajo que hagan el trabajo pesado por ti.
  • Liderar con Datos: colaborar con líderes de Ingeniería, Marketing y Diseño para implementar funcionalidades impulsadas por ML (p. ej., puntuación de leads, onboarding dinámico).
  • Despliegue a Producción: llevar modelos desde el laboratorio a entornos de producción, monitorizando performance y estableciendo mantenibilidad y gobernanza de datos.
  • Definir la hoja de ruta basada en datos: traducir requerimientos de negocio a iniciativas de datos con impacto medible en crecimiento y retención.

Descripción y perfil buscado

Buscamos un(a) Lead Data Scientist con experiencia probada en entornos de alto crecimiento B2B SaaS o tecnología acelerada. Debes combinar dominio técnico con capacidad para influir a nivel de VP y colaborar estrechamente con equipos globales. Se valorará experiencia en crecimiento de productos, experimentación rigurosa y uso de GenAI para acelerar descubrimiento y implementación de soluciones de negocio. Requerimos habilidades analíticas profundas, intuición de producto y capacidad para comunicar conceptos complejos de forma clara a stakeholders técnicos y no técnicos.

Requisitos

  • Dominio avanzado del inglés es obligatorio. Debatirás ideas con stakeholders de nivel VP en EE. UU.
  • Disponibilidad para trabajar híbrido en Santiago, 3x2.
  • Licenciatura en Ciencias de la Computación, Ingeniería, Ciencia de Datos, o experiencia equivalente altamente preferida.
  • Más de 8 años de experiencia en Ciencia de Datos o ML, idealmente en entornos de alto crecimiento B2B SaaS o tecnología de ritmo acelerado.
  • Un dominio sólido de Python, SQL y las prácticas modernas de MLOps y CI/CD de datos.
  • Base sólida en matemáticas y/o modelado estadístico — crítica para diseñar experimentos robustos y construir modelos ML efectivos.
  • Experiencia práctica (o pasión profunda) en el aprovechamiento de herramientas de GenAI para acelerar la exploración de datos, crear prototipos más rápido y automatizar flujos de trabajo repetitivos.
  • Te mueves rápido; prefieres lanzar y aprender; amas la velocidad, la manipulación creativa de datos (creative data wrangling) y desafiar suposiciones.

Beneficios y cultura

  • Contrato indefinido.
  • Salario competitivo en CLP.
  • Seguro de salud, vida y dental para ti y tu familia.
  • Bono anual de $3,000 USD para aprendizaje y desarrollo.
  • RSU.
  • 5 días adicionales de vacaciones.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Technical Business Analyst
  • 2BRAINS
  • Nuevo León (In-office)
SQL E-commerce Postman Business Analyst

2Brains es una consultora tecnológica que impulsa el crecimiento y la evolución de organizaciones líderes en Latinoamérica. Diseñamos y construimos el futuro digital de nuestros clientes a través de una integración profunda y estratégica de negocio, experiencia y tecnología, convirtiendo desafíos complejos en impacto real.

Hoy, 2Brains forma parte de Acid Labs, uno de los principales grupos de consultoría tech e innovación de la región. Esta adquisición fortalece nuestra propuesta de valor, ampliando nuestra escala, capacidades tecnológicas y presencia regional, y nos permite acompañar a nuestros clientes con soluciones más robustas, ágiles y de alto impacto en todo su ciclo de transformación.

Apply directly from Get on Board.

¿Cuales serán tus responsabilidades como Technical Business Analyst?

  • Levantar, analizar y documentar requerimientos funcionales y técnicos.
  • Modelar procesos mediante diagramas de flujo, reglas de negocio y lógica de integración.
  • Definir criterios de aceptación técnicos y funcionales, validando escenarios complejos.
  • Acompañar a los equipos de desarrollo resolviendo dudas de negocio y lógica funcional.
  • Apoyar la validación de integraciones entre frontend, backend y servicios externos.
  • Colaborar estrechamente con Product Owner y Project Manager durante todo el ciclo de desarrollo.

¿Qué conocimientos buscamos en el/la Technical Business Analyst?

  • Análisis de procesos y levantamiento de requerimientos en proyectos digitales.
  • Experiencia en plataformas transaccionales, e-commerce o ecosistemas complejos.
  • Conocimiento en APIs, flujos de integración y lógica de sistemas distribuidos.
  • Uso de herramientas como Postman, SQL u otras de inspección técnica.
  • Documentación funcional y técnica clara y estructurada.

¿Qué competencias buscamos en el/la Technical Business Analyst?

  • Pensamiento analítico y atención al detalle.
  • Capacidad para traducir necesidades de negocio en soluciones técnicas.
  • Comunicación clara con perfiles técnicos y no técnicos.
  • Proactividad y autonomía en la gestión de tareas.
  • Trabajo colaborativo y orientación a la calidad.

Te ofrecemos:

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Data Scientist/aI MLOps para Montar Area de AI
  • Modelab
  • Santiago (Hybrid)
Python Data Analysis SQL Artificial Intelligence

El/la candidato/a será de los primeros integrantes de la nueva área de Inteligencia Artificial – que se desarrollará con Modelab – de una las empresas chilenas con más reconocimiento internacional, con miles de empleados en Chile y en el extranjero. El/la candidato/a trabajará con expertos de matemática de datos, ingenieros de procesos industriales, y del área de negocios de la empresa, resolviendo problemas de real relevancia industrial y alto valor agregado, y en interacción con equipos internacionales. En la entrevista te explicamos los detalles.

Exclusive to Get on Board.

Funciones principales

  • Diseñar, desarrollar y validar modelos analíticos para optimizar procesos industriales y operativos.
  • Realizar analítica descriptiva, diagnóstica y predictiva para apoyar la toma de decisiones en manufactura y mantenimiento.
  • Implementar soluciones de machine learning y estadísticas con validación experimental y seguimiento de KPIs.
  • Colaborar con ingeniería, operaciones y negocios para definir requerimientos y traducirlos en soluciones técnicas efectivas.
  • Dirigir iniciativas de automatización y mejora continua, promoviendo buenas prácticas de modelado y gobernanza de datos.
  • Mentorizar a colegas y fomentar un ambiente de aprendizaje y mejora constante.
  • Comunicar hallazgos y resultados de forma clara a stakeholders y equipos multidisciplinarios.

Si tu perfil es más "AI / MLOps" También estamos interesados en tu CV!

Requisitos - perfil deseado

Buscamos profesionales con experiencia demostrable en ciencia de datos aplicada a procesos industriales. Debe poseer sólidos fundamentos en estadística, machine learning y análisis de datos, así como experiencia en entornos de manufactura o procesos de ingeniería. Se valorarán conocimientos en mantenimiento predictivo, optimización de procesos y experiencia con herramientas de análisis y visualización de datos. Se esperan habilidades para trabajar en equipos multifuncionales, capacidad de explicar resultados complejos de forma clara y orientación a resultados de negocio. Requisitos mínimos: experiencia comprobable como Data Scientist Senior o Experto, manejo de Python , SQL y herramientas de análisis de datos; conocimiento de metodologías de experimentación y validación; capacidad para trabajar en entornos dinámicos y cambiantes; inglés técnico.

Requisitos – bonus

Experiencia en proyectos industriales, conocimiento de plataformas de datos industriales, mantenimiento predictivo y optimización de procesos. Deseable experiencia en liderar equipos y mentorizar a otros data scientists. Habilidades de comunicación y presentaciones efectivas, pensamiento analítico, curiosidad por la mejora continua y orientación a resultados de negocio.

Si vienes al mundo de la ciencia de datos desde la ingeniería civil eléctrica, mecánica, química, matemática, o industrial, podrías ser el candidato ideal.

Beneficios

Proyectos "Greenfield", donde puedes dejar tu marca.
Viernes trabajo hasta 16:45
Trabajo Híbrido, 2 días remoto, 3 en oficina (Santiago, sector El Golf).
Clases particulares de inglés (si es que las necesitas)

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Apply directly through getonbrd.com.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3200 - 3500 Full time
Ingeniero/a de Datos Inglés Avanzado
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Agile SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años en el mercado latinoamericano, busca un/a Ingeniero/a de Datos con inglés avanzado para planificar, ejecutar y reportar proyectos de datos de diverso alcance. El rol implica trabajar de forma autónoma con información compleja, proponiendo soluciones sólidas a problemas de negocio. La posición forma parte de nuestro equipo de ingeniería de datos, colaborando con clientes de alto perfil y con una visión de transformación digital que integra tecnologías de nube, analítica y automatización.

Apply through Get on Board.

Funciones y Responsabilidades

  • Diseñar, construir y mantener pipelines de datos utilizando SQL, NoSQL (MySQL, PostgreSQL, MongoDB, Redshift, SQL Server) y herramientas de orquestación.
  • Desarrollar procesos de ETL/ELT y soluciones de Data Warehouse para ingesta y transformación de datos a escala empresarial.
  • Desarrollar y mantener código en Python para procesamiento y automatización de datos.
  • Orquestar flujos de datos con herramientas como Apache Airflow y DBT.
  • Gestión de ingesta en tiempo real, incluyendo etiquetado web y plataformas de datos en tiempo real (p. ej., Snowplow, Google Tag Manager).
  • Definir y mantener pipelines CI/CD con herramientas como Bitbucket y Jenkins.
  • Aplicar metodologías ágiles: gestión de backlog, seguimiento de proyectos e informes (idealmente con Jira).
  • Trabajar en entornos cloud (AWS) y big data, con experiencia en PySpark u otras tecnologías para ingeniería y despliegue de datos.
  • Conocimiento de herramientas complementarias (deseables): Digdag, Embulk, Presto.
  • Capacidad para comprender el negocio y aportar en analítica de marketing/Martech y/o Adtech como valor agregado.
  • Aplicación de modelos de machine learning en plataformas de datos de clientes (deseable).
  • Conocimientos de publicidad programática como plus.
  • Gestión de bloques de datos y calidad de datos, asegurando trazabilidad y gobernanza.
  • Colaboración con equipos multidisciplinarios y apoyo a stakeholders internos y externos.

Requisitos y Perfil

Buscamos un/a Ingeniero/a de Datos con experiencia sólida en desarrollo e implementación de soluciones de datos complejas. Debe demostrar capacidad para planificar, ejecutar y comunicar avances de proyectos de datos en entornos dinámicos, con especial atención a la calidad de datos, escalabilidad y rendimiento. Se valorará experiencia en proyectos de Martech/Adtech y en entornos de nube. Se requiere habilidad para trabajar de forma autónoma, resolver problemas y colaborar de manera efectiva con equipos multifuncionales.
Habilidades técnicas esenciales: dominio de SQL y NoSQL, experiencia con Data Warehouse y ETL/ELT, Python para procesamiento, herramientas de orquestación (Airflow, DBT), ingestas en tiempo real, CI/CD (Bitbucket, Jenkins), metodologías ágiles (Jira), y experiencia en AWS o plataformas similares. Se valora conocimiento en herramientas como Snowplow, Google Tag Manager, Digdag, Embulk y Presto, así como experiencia en marketing analytics y/o ML en datos de clientes.
Habilidades blandas: mentalidad de ingeniero/a, capacidad de resolución de problemas, buen colaborador/a en equipo, orientación al aprendizaje continuo y crecimiento profesional, comunicación clara y capacidad para gestionar prioridades en entornos con información parcial.

Competencias Deseables

  • Experiencia en publicidad programática y plataformas de publicidad digital.
  • Conocimientos avanzados en ML aplicado a datos de clientes y casos de uso de marketing automation.
  • Experiencia con Digdag, Embulk o Presto; familiaridad con pipelines complejos y orquestación multicampo.
  • Conocimiento de gobernanza de datos y buenas prácticas de seguridad y cumplimiento.

Beneficios y Condiciones

Ofrecemos contrato por proyecto con posibilidad de continuidad, en una empresa consolidada en Latinoamérica con más de tres décadas de experiencia. Forma parte de un equipo multidisciplinario, con comunicación directa con la matriz y operaciones en Santiago y otras ciudades, fomentando desarrollo profesional y crecimiento. Modalidad de trabajo híbrida con proyección a 100% presencial, horario habitual de lunes a jueves, con viernes reducido, y posibilidad de ajuste según proyecto. Ubicaciones en Concepción y Santiago, con oportunidades de desarrollo y aprendizaje continuo. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer SSR
  • TCIT
  • Santiago (Hybrid)
Python SQL Virtualization Big Data
En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

© getonbrd.com. All rights reserved.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos robustos y escalables utilizando Python y tecnologías de datos en la nube.
  • Desarrollar procesos ETL/ELT, modelado de datos y soluciones de almacenamiento (data lake/warehouse) en plataformas cloud.
  • Colaborar con equipos de datos, BI y producto para entender requerimientos, traducirlos en soluciones técnicas y garantizar la calidad de los datos.
  • Implementar soluciones de monitoring, logging y alerting; asegurar la confiabilidad, rendimiento y seguridad de los datos.
  • Automatizar despliegues y mantener pipelines mediante CI/CD; aplicar prácticas de versionado y pruebas de datos.
  • Participar en la mejora continua de procesos y en la migración hacia arquitecturas basadas en la nube.

Requisitos y perfil

Buscamos un Data Engineer con fuerte dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.
Requisitos técnicos:
  • Experiencia sólida desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Conocimiento en al menos una plataforma cloud (AWS, GCP o Azure) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Conocimientos de SQL avanzado y modelado de datos; experiencia con almacenes de datos y data lakes.
  • Conocimientos de contenedores (Docker), CI/CD y herramientas de observabilidad (Prometheus, Grafana, etc.).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.
Habilidades blandas:
  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).
Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.
Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Conditions

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

Find this job on getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 1700 Full time
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB
En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

This posting is original from the Get on Board platform.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

VIEW JOB APPLY VIA WEB
Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL Scrum

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Originally published on getonbrd.com.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

© Get on Board. All rights reserved.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2200 Full time
Data Analyst
  • TCIT
Python Agile Data Analysis SQL
En TCIT aceleramos la transformación digital de organizaciones a través de soluciones innovadoras y sostenibles en la nube. Nuestro equipo de Data analiza grandes volúmenes de datos para entregar insights accionables que impulsan decisiones estratégicas en clientes de diversos sectores. Buscamos a un Data Analyst con visión analítica y pasión por la mejora continua para unirse a proyectos que integran soluciones de negocio, herramientas de BI y pipelines de datos en entornos ágiles. El candidato trabajará en estrecha colaboración con equipos de producto, ingeniería y negocio, asegurando que los tableros y modelos de datos generen valor real y resultados medibles para nuestros clientes y socios tecnológicos.

This posting is original from the Get on Board platform.

Responsabilidades clave

  • Definir y ejecutar análisis exploratorios para identificar impulsores de negocio y áreas de mejora a partir de datasets complejos.
  • Diseñar, construir y mantener dashboards e informes interactivos en Looker Studio para stakeholders de negocio y operaciones.
  • Desarrollar y mantener modelos en Looker ML (LookML) para estructurar datos y facilitar consultas eficientes.
  • Colaborar con equipos de ingeniería para diseñar pipelines de datos confiables, asegurar calidad de datos y gobernanza.
  • Trabajar con SQL avanzado para extraer, transformar y cargar datos desde diversas fuentes y data warehouses.
  • Participar en reuniones de requisitos, traduciendo necesidades de negocio en métricas y visualizaciones comprensibles.
  • Aplicar principios de análisis de datos para apoyar decisiones estratégicas, medir impacto de iniciativas y controlar KPIs.
  • Automatizar procesos de reporte y desarrollar documentación clara de dashboards, métricas y definiciones de datos.
  • Contribuir a un entorno ágil (scrum) con entregas iterativas y revisión continua de resultados.

Requisitos y perfil

Buscamos un Data Analyst con 3 a 5 años de experiencia comprobable en análisis de datos, con fuerte capacidad para convertir datos en insights accionables. Debe dominar Looker Studio para visualización avanzada y Looker ML para modelado y acceso a datos a través de Looker. Se valorará experiencia en entornos de nube y en gestión de datos desde fuentes heterogéneas. Requisitos mínimos: SQL avanzado, experiencia práctica con Looker Studio y LookerML/Looker ML, análisis estadístico y habilidades de comunicación para presentar hallazgos a stakeholders. Deseable conocimiento de Python o R para manipulación de datos y automatización, así como experiencia con ETL, data warehousing (BigQuery, Snowflake u otros), y metodologías ágiles. Buscamos perfiles proactivos, orientados a resultados, con pensamiento crítico y excelentes habilidades de storytelling para negocios.

Requisitos deseables

Experiencia adicional con herramientas de BI y visualización, familiaridad con soluciones en la nube (p. ej., BigQuery, Snowflake, AWS Redshift), conocimientos de Git para control de versiones, y capacidad de trabajar en inglés técnico. Valoramos experiencia en sectores regulados o con altos requerimientos de gobernanza de datos, así como habilidades de comunicación para colaborar con equipos multifuncionales y coaches de datos.

Conditions

Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Santiago (In-office)
Python Data Analysis SQL Artificial Intelligence
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. Nos enfocamos en formar técnicos y profesionales a través de 9 escuelas y más de 70 carreras vigentes, presentes en 18 sedes regionales. Nuestro equipo docente colabora en entornos multicisciplinarios y con enfoque en valores institucionales, buscando aportar al desarrollo económico de Chile mediante una educación de calidad y actualizada.

© getonbrd.com.

Funciones y responsabilidades

  • Liderar el proceso de enseñanza/aprendizaje en la asignatura de Minería de Datos, alineada al modelo educativo y al marco valórico institucional.
  • Desarrollar unidades didácticas, planificaciones y recursos pedagógicos que favorezcan el aprendizaje activo (ABP) y proyectos aplicados.
  • Evaluar y retroalimentar a los estudiantes, contextualizando contenidos al mundo laboral y simulando entornos empresariales.
  • Trabajar en colaboración con equipos multidisciplinarios, integrando herramientas de análisis de datos, inteligencia de negocio y desarrollo de software.
  • Integrar tecnologías y prácticas actuales de minería de datos, analítica y visualización para generar insights relevantes.
  • Contribuir a la mejora continua de la calidad de la enseñanza y del desempeño estudiantil.

Requisitos y perfil buscado

Requisitos del perfil:

  • Formación: Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en Análisis y diseño de software, empleando modelos de datos, aplicación de técnicas de Minería de Datos, experiencia en áreas de Inteligencia de Negocio, que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Martes: 16:01 a 17:20/ Miércoles: 16:01 a 18:50/ Jueves: 19:01 a 21:10/ Viernes: 20:31 a 22:30.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Debe poseer competencias profesionales tales como:

  • Conocimiento en estadística para minería de datos.
  • Conocimientos en lenguaje de programación Python, librerías: numpy, pandas, sckit learn.
  • Habilidad y experiencia en análisis y diseño, empleando modelos de datos.
  • Experiencia con técnicas de Minería de Datos basado en metodología CRISP-DM.
  • Experiencia en áreas de Inteligencia de Negocio.
  • Conocimiento en estadística descriptiva e inferencial para minería de datos.

Competencias deseables

Conocimiento avanzado de Python y sus ecosistemas para ciencia de datos; experiencia adicional en SQL, bases de datos y visualización (por ejemplo, Power BI o Tableau). Certificaciones o cursos en ML/IA y minería de datos, así como experiencia de enseñanza en entornos universitarios o técnicos.

Beneficios y condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
$$$ Full time
Commvault Data Protection Consultant
  • Servicio Latam
  • San Salvador (In-office)
Soporte técnico Cloud Audit Backup
Descripción del puesto:
SERVICIO LATAM es una empresa líder en el sector de tecnologías de la información, dedicada a brindar soluciones innovadoras y eficientes a sus clientes. Nuestra empresa se destaca por fomentar un ambiente de trabajo colaborativo, con oportunidades de crecimiento profesional y desarrollo personal para todos los empleados.
En Servicio Latam nos encontramos en la búsqueda de Commvaul Consultor para unirse a un proyecto tecnológico en crecimiento. La posición está orientada a perfiles con experiencia y con sólidos conocimientos en Red Hat OpenShift, que puedan brindar acompañamiento técnico y soporte al equipo.

Apply to this job without intermediaries on Get on Board.

Job functions

Descripción del perfil
El Consultor Commvault es el especialista encargado de asesorar, diseñar y optimizar soluciones de protección y gestión de datos utilizando la plataforma Commvault. Su rol es estratégico y técnico, orientado a garantizar la continuidad del negocio, la seguridad de la información y el cumplimiento normativo, adaptando la solución a las necesidades específicas del cliente o de la organización.
Actúa como enlace entre el negocio y la tecnología, proponiendo arquitecturas eficientes de respaldo, recuperación ante desastres y protección contra ransomware en entornos on-premise, híbridos y en la nube.

Qualifications and requirements

Funciones principales
  • Levantar requerimientos técnicos y de negocio relacionados con protección de datos.
  • Diseñar arquitecturas de backup, recuperación y DRP con Commvault.
  • Implementar y/o supervisar implementaciones de Commvault.
  • Definir políticas de retención, cifrado, deduplicación y almacenamiento.
  • Asesorar en estrategias de protección contra ransomware y recuperación segura.
  • Optimizar el rendimiento y costos de las soluciones de respaldo.
  • Realizar auditorías y diagnósticos de ambientes Commvault existentes.
  • Ejecutar y validar pruebas de recuperación y planes de continuidad.
  • Elaborar documentación técnica, diseños y buenas prácticas.
  • Brindar soporte especializado (nivel 3) y transferencia de conocimiento.
  • Acompañar procesos de migración a la nube y modernización de backups.

Desirable skills

Herramientas y tecnologías - Plataforma principal
  • Commvault Complete Data Protection
  • Commvault Command Center
  • Commvault Activate (analítica y clasificación de datos)
Infraestructura
  • Windows Server / Linux
  • VMware vSphere / Hyper-V
  • Almacenamiento SAN / NAS
Bases de datos
  • Microsoft SQL Server
  • Oracle
  • MySQL / PostgreSQL
Nube
  • Microsoft Azure (Blob Storage, Azure Backup)
  • AWS (S3, EC2)
  • Google Cloud Platform (GCP)
Automatización y seguridad
  • PowerShell / Bash
  • Active Directory
  • Cifrado, control de accesos y políticas de seguridad
  • Integración con soluciones de monitoreo
Formación y perfil profesional
  • Ingeniero de Sistemas
  • Ingeniero Informático
  • Ingeniero de Telecomunicaciones
  • Tecnólogo en Sistemas con amplia experiencia en backup e infraestructura

Conditions

Tipo de contrato: Prestación Servicios
Salario: Abierto según experiencia

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer (AWS Redshift / Zero‑ETL / Consumption Layer)
  • WiTi
Analytics SQL Business Intelligence Virtualization
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

This company only accepts applications on Get on Board.

Funciones del cargo

Buscamos un Data Engineer con experiencia sólida construyendo y optimizando capas de consumo analíticas en entornos cloud, idealmente sobre Amazon Redshift Serverless.
Tu misión será diseñar, modelar y mantener una capa de consumo en Redshift a partir de datos replicados vía Zero‑ETL desde Aurora, habilitando datasets confiables y performantes para reporting, métricas multi‑dominio y casos de uso de analítica/IA.

Responsabilidades principales:

  • Diseñar modelos analíticos (facts, dims y marts) orientados a autoservicio de datos y consumo por herramientas BI/IA.
  • Implementar y optimizar consultas SQL avanzadas sobre Redshift (joins grandes, agregaciones, window functions) garantizando buen performance y costo.
  • Analizar y tunear el rendimiento de Redshift (EXPLAIN, DS_BCAST/DS_DIST, scans, spill, skew) proponiendo mejoras continuas en diseño físico.
  • Definir y ajustar DISTSTYLE/DISTKEY, SORTKEY, CTAS/materializaciones y estadísticas para maximizar la performance de la capa de consumo.
  • Construir pipelines livianos en AWS (Redshift Data API, Lambda, EventBridge u otros servicios equivalentes) para refrescar la capa de consumo con mínima latencia y alta confiabilidad.
  • Colaborar con analistas, producto y stakeholders de negocio para entender métricas clave y reflejarlas correctamente en los datasets.

Requerimientos del cargo

  • Experiencia comprobable como Data Engineer (ideal 3+ años) trabajando con warehouses en cloud.
  • Experiencia práctica con Amazon Redshift (idealmente Redshift Serverless) y SQL avanzado.
  • Conocimientos fuertes de performance tuning en Redshift: lectura de EXPLAIN, comprensión de broadcast vs redistribution (DS_BCAST/DS_DIST), manejo de scans, spill y skew.
  • Diseño físico y optimización de tablas en Redshift: DISTSTYLE/DISTKEY, SORTKEY, uso de CTAS/materializaciones y manejo de estadísticas.
  • Experiencia en modelado analítico (esquemas de hechos y dimensiones, data marts, agregados) orientado a consumo.
  • Experiencia construyendo pipelines livianos en AWS para refrescar datos (por ejemplo Redshift Data API, Lambda, EventBridge o servicios equivalentes).

Nice‑to‑have (deseables):

  • Experiencia usando dbt para modelado y orquestación ligera sobre el warehouse.
  • Prácticas de data quality (tests, checks, monitoreo de calidad de datos).
  • Experiencia exponiendo la capa de consumo a través de herramientas BI como QuickSight u otras.
  • Haber habilitado semantic layers o datasets pensados para IA/LLM o analítica avanzada.

Soft Skills

Resolución de problemas: Capacidad analítica para identificar cuellos de botella de performance y proponer soluciones técnicas simples y efectivas.

  • Comunicación: Habilidad para explicar decisiones de diseño de datos y métricas a perfiles técnicos y de negocio.
  • Colaboración: Experiencia trabajando con equipos ágiles y en coordinación con analistas, científicos de datos y desarrolladores.
  • Orden y detalle: Prolijidad en documentación, definición de contratos de datos y buenas prácticas en modelado.

Condiciones

En WiTI, nuestro centro son las personas y la agilidad, nos gusta compartir conocimientos entre todos y distintas áreas, cómo compartir tiempo extra para conversar sobre videojuegos, películas, seríes y cualquier topic interesante para nosotros.

  • Plan de carrera
  • Certificaciones
  • Cursos de idiomas
  • Aguinaldos

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3400 Full time
Senior Data Engineer
  • Forest
  • Santiago (Hybrid)
Python PostgreSQL Git SQL

What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all customers free cycling minutes daily.

We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.

If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.

Please note: our company is based in the UK and has Chilean Founders.

*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

Apply exclusively at getonbrd.com.

About the Role

We are looking for a SeniorData Engineer with strong experience in database migrations, specifically moving large-scale datasets and pipelines from Postgres to Snowflake. You will design, build, and optimize migration workflows using Mage as our orchestration platform, while leveraging both AWS and GCP infrastructure.

This role is ideal for someone who knows how to work with complex schemas, high-volume data, and performance tuning, and who can drive a seamless migration with minimal downtime.

Migration & Pipeline Development

  • Lead the end-to-end migration of datasets, ETL jobs, and schemas from Postgres to Snowflake.
  • Design, build, and maintain data ingestion and transformation pipelines using Mage.
  • Ensure data quality, consistency, and performance across the migrated ecosystem.

Architecture & Optimization

  • Optimize query performance and warehouse usage in Snowflake (clustering, micro-partitioning, caching, etc.).
  • Work with cloud infrastructure on AWS and GCP, integrating pipelines with storage (S3/GCS), compute, IAM, networking, and secret management.
  • Create scalable, cost-efficient data models and workflows.

Tableau Integration & Support

  • Support the migration of Tableau data sources from Postgres connections to Snowflake connections.
  • Work with the Data team to validate Tableau dashboards after migration.
  • Optimize Snowflake models and queries used by Tableau to ensure performance and cost efficiency.
  • Help redesign or refactor extracts, live connections, and published data sources to align with best practices.

Collaboration & Delivery

  • Partner with Data, Product, and Engineering to understand data needs and ensure smooth transition.
  • Document migration steps, architecture decisions, and pipeline designs.
  • Troubleshoot and resolve issues related to performance, data inconsistencies, and pipeline failures.

Requirements

Technical Skills

  • 5+ years of experience in Data Engineering or similar roles.
  • Strong expertise with Postgres (schema design, query tuning, replication strategies).
  • Hands-on experience with Snowflake (Snowpipe, Tasks, Streams, Warehouses).
  • Solid experience orchestrating pipelines using Mage (or Airflow/Prefect with willingness to learn Mage).
  • Strong SQL skills and Python.
  • Experience working with AWS and GCP
  • Familiarity with CI/CD pipelines and Git-based workflows.

Optionals

  • Experience migrating large datasets or re platforming data stacks.
  • Experience implementing security and governance frameworks.
  • Strong communication and documentation habits.
  • Ability to work independently and drive projects from start to finish.
  • Problem-solver with a focus on reliability and scalability.
  • Comfortable working in a fast-paced, cloud-native, multi-cloud environment.

What we offer

  • Opportunity to design and influence the core data architecture.
  • Flexibility, learning resources, and ownership over high-impact projects.
  • Play a key role in the transformation of sustainable urban mobility in our cities.
  • Competitive compensation plan with plenty of development opportunities.
  • Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.
  • Private Health Insurance plan.
  • 20 days holiday plus your birthday.
  • Work for an international company that has a link between Chile and the UK.
  • Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Forest pays or copays life insurance for employees.
Meals provided Forest provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Forest pays or copays health insurance for employees.
Dental insurance Forest pays or copays dental insurance for employees.
Computer provided Forest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Forest gives you paid vacations over the legal minimum.
Beverages and snacks Forest offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineering Lead
  • Global Mobility Apex, S.A.
Python Analytics SQL Erlang
Sobre la empresa
Global Mobility Apex, S.A. es una corporación multinacional de bebidas y alimentos, fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y alianzas estratégicas con PepsiCo y AB InBev. Nos organizamos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talentos que se sumen a nuestra estrategia de expansión y crecimiento, compartiendo nuestros anhelos y aportando su visión para lograr grandes resultados.
Buscamos el "Data Engineering Lead" que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco en Azure y soporte en Google Cloud Platform (GCP). Este rol define, lidera y escala la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable para analítica avanzada, BI y productos digitales en múltiples países.

Apply exclusively at getonbrd.com.

Objetivo del rol

Buscamos incorporar un Data Engineering Lead que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco principal en Azure y soportecomplementario en Google Cloud Platform (GCP).

Será responsable de definir, liderar y escalar la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable, capaz de soportar analítica avanzada, BI y productos digitales en múltiples países. Este rol combina liderazgo técnico, arquitectura de datos multi-cloud, gobierno, y gestión de equipos, actuando como habilitador clave de la estrategia data-driven de la organización.

Responsabilidades clave

1. Arquitectura de Datos Multi-Cloud (Azure 60% / GCP 40%)

  • Definir y evolucionar una arquitectura Lakehouse corporativa (Bronze / Silver / Gold) en entornos Azure y GCP.
  • Liderar el diseño e implementación de soluciones escalables utilizando principalmente Azure, incluyendo:
    • Azure Data Lake Storage Gen2 (Data Lake)
    • Azure Databricks (Spark / Lakehouse)
    • Azure Data Factory (ingesta y orquestación)
    • Azure Synapse / Azure SQL / Delta Lake (cuando aplique)
  • Integrar y operar soluciones complementarias en GCP, tales como:o Cloud Storage
    • BigQuery
    • Dataflow / Apache Beam
    • Dataproc (Spark administrado)
    • Vertex AI
  • Definir estándares de naming, particionamiento, versionado, performance y seguridad comunes entre nubes.

2. Gobierno, Calidad y Seguridad de Datos

  • Garantizar datos confiables, trazables y gobernados en toda la plataforma.
  • Diseñar e implementar prácticas de:
    • Data Quality (DQ)
    • Data Lineage
    • Data Catalog / Business Glossary
  • Implementar controles de seguridad y gobierno mediante:
    • Azure Purview / Microsoft Fabric governance (cuando aplique)
    • Unity Catalog (Databricks)
    • GCP Dataplex / Data Catalog
  • Asegurar cumplimiento de políticas de acceso, privacidad y auditoría.

3. Orquestación, Automatización y CI/CD

  • Liderar la orquestación de pipelines ETL/ELT usando:
    • Azure Data Factory
    • Azure Databricks Jobs
    • Cloud Composer (Airflow)
  • Garantizar pipelines:
    • Idempotentes
    • Reproducibles
    • Versionados
  • Implementar CI/CD para infraestructura y data pipelines usando:
    • Terraform / IaC
    • GitHub Actions / Azure DevOps
  • Supervisar despliegues seguros en ambientes dev / qa / prod.

4. Liderazgo de Equipos y Stakeholders

  • Liderar y mentorizar equipos de Data Engineers en distintos países.
  • Definir estándares de ingeniería y promover buenas prácticas de desarrollo (Python, SQL, Spark).
  • Actuar como punto de enlace entre:
    • Negocioo Analytics & Data Science
    • BI
    • Cloud & Security
    • Proveedores tecnológicos
  • Traducir necesidades de negocio en soluciones técnicas escalables y sostenibles.

5. Optimización de Costos y Performance

  • Optimizar costos y performance en:
    • Azure Databricks y ADLS
    • BigQuery y Dataflow
  • Diseñar estrategias de:
    • Particionado y clustering
    • Gestión de workloads
    • Control de consumo y costos
  • Promover mejora continua de la arquitectura y tooling.

Requisitos

Formación

  • Licenciatura o Maestría en Ingeniería, Sistemas, Computación, Data Science o carreras afines.

Experiencia

  • +7 años de experiencia en Ingeniería de Datos.
  • Experiencia liderando plataformas de datos en Azure (imprescindible).
  • Experiencia comprobada en GCP (deseablem y plus).
  • Dominio de arquitecturas Lakehouse / Medallion (Bronze / Silver / Gold).
  • Experiencia sólida en:
    • SQL avanzado
    • Python
    • Spark / Databricks
  • Experiencia liderando equipos técnicos.

Deseable

  • Experiencia en CPG / Retail / Consumo Masivo.
  • Conocimiento de Data Governance y Data Mesh (conceptual).
  • Experiencia en entornos multi-país y multi-negocio.

Retos del puesto

  • Escalar una plataforma de datos multi-cloud a nivel regional.
  • Estandarizar arquitectura y prácticas entre Azure y GCP.
  • Garantizar calidad, seguridad y gobierno en entornos complejos.
  • Balancear velocidad, performance y costos.
  • Habilitar datos confiables para analítica avanzada y productos digitales.

Health coverage Global Mobility Apex, S.A. pays or copays health insurance for employees.
Computer provided Global Mobility Apex, S.A. provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Global Mobility Apex, S.A. gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Intelligence Specialist
  • Lemontech
  • Santiago (Hybrid)
SQL Business Intelligence Big Data BigQuery

En LemonTech, somos una empresa SaaS líder en Latinoamérica en el área Legaltech, comprometidos con modernizar procesos legales a través de tecnología innovadora. Nos especializamos en desarrollar softwares eficaces para el sector jurídico, simplificando y digitalizando lo que anteriormente era burocrático.
Nuestro equipo está compuesto por talentos internacionales, cada uno aportando sus habilidades únicas para crear un ambiente colaborativo y creativo.

Job opportunity published on getonbrd.com.

Funciones del cargo

Si te motiva trabajar con datos que sí se usan, construir métricas que no se discuten en cada reunión y ser quien pone orden cuando aparecen “tres números distintos para el mismo KPI”, este rol es para ti.

Buscamos a alguien que se adueñe de la capa analítica y de visualización, y que convierta datos operativos en decisiones claras para el negocio.

  • Diseñar, desarrollar y optimizar modelos analíticos en dbt sobre BigQuery, enfocados en consumo BI y reporting ejecutivo.
  • Asegurar que la lógica de negocio esté bien implementada, versionada y documentada.
  • Trabajar junto a Analytics Engineering en la definición de métricas core y modelos compartidos.
  • Velar por calidad de datos, naming conventions, trazabilidad y performance (incluyendo control de costos).
  • Analizar datos provenientes de sistemas operacionales como NetSuite (ERP) y HubSpot (CRM).
  • Detectar patrones, tendencias y anomalías relevantes para el negocio.
  • Diseñar y mantener dashboards avanzados en Power BI, pensados para tomar decisiones, no solo para mirar.
  • Definir, validar y documentar KPIs estratégicos (ARR, churn, NPS, Customer Health Score, entre otros).
  • Actuar como referente técnico y funcional en Power BI y DAX avanzado.
  • Traducir necesidades de negocio en requerimientos analíticos claros.
  • Presentar insights y conclusiones a líderes de distintas áreas.
  • Promover buenas prácticas de análisis, visualización y uso de datos dentro del equipo.

Nota importante: la ingesta y pipelines base ya existen. Este rol se enfoca en transformar, modelar y dar sentido a la data, no en moverla.

Requerimientos del cargo

  • SQL avanzado, idealmente en BigQuery u otro data warehouse analítico.
  • Experiencia sólida en dbt para modelado y transformación de datos.
  • Manejo avanzado de Power BI, incluyendo DAX.
  • Experiencia trabajando en entornos Google Cloud Platform (BigQuery).
  • Capacidad para entender el negocio y traducirlo en métricas claras.
  • Buen criterio analítico, orden y obsesión sana por la consistencia de los datos.
  • Habilidad para comunicar insights a perfiles no técnicos sin perder rigor.

Opcionales

  • Experiencia usando Python para análisis exploratorio o complementario.
  • Conocimiento funcional de métricas SaaS.
  • Experiencia previa con NetSuite y/o HubSpot.
  • Haber trabajado consumiendo o visualizando resultados de modelos predictivos (churn, scoring, segmentación).
  • Familiaridad con conceptos básicos de machine learning aplicado a negocio.

Condiciones

🌍 Work From Anywhere (WFA): Flexibilidad para trabajar desde cualquier lugar.
🌅 Semana extra de vacaciones: Una semana adicional a los días legales por país.
🏡 Horarios flexibles: Trabaja desde casa o nuestra oficina.
🍏 Espacios de descanso: Lounge con snacks y frutas para desconectar.
🚀 Cultura de equipo: Trabajamos juntos para alcanzar objetivos y disfrutar el proceso.
💼 Co-financiamiento de estudios: Apoyo para tu desarrollo profesional.
🏥 Seguro complementario (solo en Chile): Para tu bienestar y tranquilidad.
🍼 Postnatal parental de 1 mes: Para disfrutar con tu bebé.

Postúlate ahora y acompáñanos a transformar el futuro del LegalTech! 🌟

Te compartimos nuestro aviso de Privacidad de Postulantes.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Lemontech pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Lemontech provides a computer for your work.
Education stipend Lemontech covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Lemontech offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Analytics Data Analysis Excel

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

Applications are only received at getonbrd.com.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Data Analysis Excel

BC Tecnología es una consultora de TI que diseña soluciones para clientes en sectores como finanzas, seguros, retail y gobierno. En este rol, te integrarás a un equipo de Risk Operations enfocado en generar y mantener un ecosistema de procesos de monitoreo y alertas para detectar conductas fraudulentas o riesgosas de Sellers activos en el Marketplace. Trabajarás en proyectos estratégicos de alto impacto, con coordinación de requerimientos a nivel local e internacional, buscando mitigar riesgos operacionales y reputacionales mediante soluciones basadas en datos y automatización de procesos.

Colaborarás con áreas de negocio para traducir necesidades en soluciones analíticas; levantarás, documentarás y mantendrás procesos automáticos; y contribuirás a la mejora continua de procesos operacionales a través de insights basados en datos y reportes periódicos. Tendrás la oportunidad de participar en un entorno colaborativo, con cultura de aprendizaje y enfoque en crecimiento profesional.

Apply to this job through Get on Board.

Funciones y responsabilidades clave

  • Generar y mantener un ecosistema de procesos de monitoreo y alertas para detección de incumplimientos y comportamientos riesgosos.
  • Analizar grandes volúmenes de datos para diseñar flujos automáticos de alertas, reportes y monitoreos orientados a la detección de riesgos.
  • Elaborar reportes periódicos y análisis ad-hoc que permitan identificar, priorizar y accionar casos de riesgo.
  • Generar insights y recomendaciones accionables para la mejora continua de procesos operacionales.
  • Levantar, documentar y mantener los procesos automáticos implementados.
  • Gestionar proyectos de analítica de principio a fin, coordinando requerimientos con stakeholders locales e internacionales.
  • Comprender cómo interactúan las distintas áreas del negocio dentro del ecosistema digital y traducir necesidades en soluciones basadas en datos.
  • Utilizar estructuras de almacenamiento y herramientas de explotación de datos para apoyar la toma de decisiones.

Descripción y requisitos del rol

Buscamos un/una Analista de Datos con 2 a 4 años de experiencia en roles similares (Analítica, BI, Operaciones, Marketing o afín). Se valorará experiencia en Ecommerce. Requerimos dominio avanzado de SQL y nivel intermedio–avanzado de inglés. Se espera manejo avanzado de al menos una herramienta de visualización/análisis de datos (Excel, Tableau, Power BI o Data Studio). Experiencia en al menos un lenguaje de programación para análisis de datos (preferible Python; R u otro también válido). Conocimientos en plataformas Cloud, idealmente Google Cloud Platform. Conocimientos en Prompt Engineering serán valorados. Se ofrece modalidad de trabajo híbrida y contrato a plazo fijo con proyección a indefinido según desempeño. Participarás en proyectos estratégicos y en un entorno orientado a la toma de decisiones basada en datos.

Requisitos deseables

Experiencia adicional en herramientas de analítica avanzada, experiencia en entornos fintech o marketplaces, capacidad de trabajar en entornos ágiles, habilidades de comunicación para colaborar con stakeholders diversos y experiencia en modelado de datos y gobernanza de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Database Lead Architect – Clinical Trial Systems (Azure/aWS)
  • Signant Health
Python Linux Virtualization Amazon Web Services

Want to do the Best Work of Your Life?

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations and reimagining the path to proof.

Where do you fit in?
We are seeking a highly experienced Lead Cloud OperationsDatabase Architect to design, implement, and govern our enterprise data architecture that supports regulated clinical research systems. This role is responsible for all database-related aspects across Microsoft Azure and AWS cloud environments, ensuring performance, security, and compliance with GxP, FDA 21 CFR Part 11, and ICH-GCP regulations. The ideal candidate combines deep technical expertise in MS SQL, Azure SQL, AWS RDS, and Cloud SQL platforms in high volume production environment with strong leadership in data governance, architecture design, and lifecycle management.

Official job site: Get on Board.

Job functions

  • Architecture & Design:
    Develop and maintain enterprise-scale data architectures supporting clinical trial systems, ensuring high availability, scalability, and security across Azure and AWS environments.
  • Database Administration & Operations:
    Oversee all aspects of database setup, configuration, backup/recovery, replication, and performance optimization for MS SQL, Azure SQL, Cloud SQL, and RDS instances.
  • Regulatory Compliance:
    Establish and enforce database procedures aligned with clinical and regulatory frameworks (e.g., GxP, 21 CFR Part 11). Partner with QA/Compliance to support audits and validation activities.
  • Security & Data Integrity:
    Implement robust access controls, encryption, monitoring, and logging mechanisms to safeguard sensitive clinical and patient data.
  • Automation & DevOps Integration:
    Automate database provisioning, patching, and schema deployments via CI/CD pipelines and Infrastructure as Code (IaC) tools (e.g., Terraform, OpenTofu, ARM templates, AWS CloudFormation).
  • Cross-Functional Leadership:
    Collaborate closely with Engineering, Project Management and Compliance teams to align data strategies across the enterprise.
  • Monitoring & Optimization:
    Design and implement proactive alerting, capacity planning, and performance tuning to maintain system reliability and speed.
  • Documentation & Standards:
    Maintain detailed architecture diagrams, SOPs, and technical documentation to support validation and internal audits.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Systems, or related field (Master’s preferred).
  • 10+ years in database architecture/administration, including 5+ years in cloud environments (Azure/AWS).
  • Expertise with MS SQL Server, Azure SQL Database and AWS RDS including strong proficiency in SQL queries and stored procedures
  • Proven experience supporting regulated (GxP/FDA) environments.
  • Strong understanding of data security, governance, and compliance in life sciences or healthcare settings.
  • Proficiency with IaC tools, monitoring platforms (CloudWatch, Azure Monitor), and automation scripting (PowerShell, Python, or Bash).
  • Strong communication skills and experience engaging with cross-functional technical and clinical teams.

Desirable skills

  • Experience integrating with clinical data systems (CDMS, EDC, LIMS).
  • Familiarity with Snowflakedatalake architectures and ETL/ELT pipelines.
  • Certifications in Azure Database Administrator, AWS Database Specialty, or equivalent cloud credentials.

Conditions

Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Ingeniero Gobierno de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Data Science Cloud Data governance
Genesys Tecnologías de Información SpA es una empresa regional con más de 30 años de experiencia en desarrollo de software y servicios TI. Nos especializamos en soluciones de privacidad, gestión de datos personales y gobernanza de datos dentro de entornos corporativos regulados. El/la candidato/a se integrará a un equipo enfocado en diseñar, implementar y operar soluciones de privacidad corporativas, asegurando su correcta integración con el ecosistema tecnológico, cumpliendo requerimientos regulatorios y de negocio, y colaborando con proveedores y áreas técnicas para garantizar la protección y gestión adecuada de datos personales.

This job offer is available on Get on Board.

Funciones principales

  • Gestión de datos personales y plataformas de privacidad, asegurando cumplimiento regulatorio y operación estable.
  • Configuración y administración de CAMP y matrices de riesgo (regulado y no regulado).
  • Implementación de búsqueda y detección de datos personales (InfoTypes) y mapeo de flujos de datos.
  • Integración de flujos para atención de derechos ARSOP (Acceso, Rectificación, Supresión, Portabilidad).
  • Gestión de puntos de captura de consentimiento (opt-in / opt-out) y modelado de datos técnicos.
  • Uso de SQL, Python y Google Cloud Platform (GCP); colaborar con equipos de datos y seguridad.
  • Conocimientos fundacionales en Gobierno de Datos y buenas prácticas de privacidad.

Requisitos y perfil

Buscamos un/a profesional proactivo/a y orientado/a a resultados, con experiencia en entornos corporativos y regulados. Se requiere capacidad para diseñar, configurar y operar soluciones de privacidad, así como para coordinar con proveedores y equipos internos. El/la candidato/a ideal posee experiencia en gestión de datos personales, herramientas de privacidad y gobernanza, y manejo técnico de bases de datos y plataformas en la nube. Se valorarán conocimientos en CDP Consent, gestión de incidentes en plataformas de privacidad y exposición previa a Warners. Se ofrece un contrato por proyecto con posibilidad de indefinido según desempeño, modalidad híbrida y horarios estandarizados.

Requisitos deseables

Experiencia con integración de plataformas de gestión de consentimientos (CDP Consent), manejo de incidentes en plataformas de privacidad y coordinación técnica con proveedores. Conocimiento inicial o exposición previa a Warners y experiencia en entornos corporativos regulados. Se valora autonomía, habilidades de comunicación, y capacidad para trabajar en equipos multidisciplinarios en un entorno dinámico.

Beneficios

Ofrecemos un contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con un equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el apoyo técnico. Jornada híbrida (horario de lunes a jueves 09:00-18:00 y viernes 09:00-16:00), con posibilidad de extensión según necesidades del negocio. Esperamos que te unas a nuestro equipo para crecer juntos! 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior de Data & Risk Ops
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis Excel Marketing

En BC Tecnología, el rol se enfoca en diseñar y operar un ecosistema de alertas y monitoreo para detectar y mitigar de forma proactiva riesgos y fraudes en el Marketplace. Trabaja con datos multi-fuente para generar reportes, dashboards e insights accionables, apoyando la toma de decisiones del equipo de Risk Ops.
Incluye gestión end-to-end de proyectos, colaboración con equipos locales e internacionales, comunicación con stakeholders y documentación de procesos automatizados, con foco en analítica, automatización y gobernanza de datos para la mejora continua.

Apply directly on Get on Board.

Principales funciones

  • Analizar datos y diseñar flujos automáticos que guíen la toma de decisiones entre áreas dentro de la empresa.
  • Gestionar proyectos de datos de principio a fin: levantamiento de requerimientos, desarrollo, validación y entrega de resultados.
  • Elaborar reportes y alertas que permitan monitorear casos de incumplimiento en el Marketplace y mitigar comportamientos de riesgo.
  • Generar insights y recomendaciones basadas en análisis ad-hoc para mejoras en procesos y herramientas.
  • Trabajar con distintas áreas para entender su interacción en el ecosistema digital y convertir insights en acciones de valor.
  • Conocer estructuras de almacenamiento de datos y herramientas disponibles para explotar la información y soportar la toma de decisiones.

Perfil y experiencia

Perfil profesional requerido:
  • Título de Ingeniería Civil Industrial, Ingeniería en Computación o Informática, o carrera afín.
  • 2-4 años de experiencia en roles similares (análisis en Operaciones, BI, Marketing, etc.).
  • Usuario avanzado en SQL (excluyente).
  • Inglés intermedio–avanzado (excluyente).
  • Usuario avanzado en al menos una herramienta de análisis/visualización: Excel, Tableau, Power BI, Data Studio (excluyente).
  • Experiencia en al menos un lenguaje para análisis de datos: Python (preferentemente), R, Julia, etc. (excluyente).
  • Conocimientos de plataformas Cloud, preferentemente Google Cloud Platform (no excluyente).
  • Conocimientos avanzados de Prompt Engineering (no excluyente).

Deseables

Se valorará experiencia en Ecommerce, capacidad para trabajar en entornos dinámicos de alto volumen de datos y habilidades de comunicación para interactuar con múltiples stakeholders a nivel internacional.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
Ingeniero de Datos
  • Coderslab.io
Python SQL Web server English
Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
En esta ocasion estamos buscando incorporar un/a Ingeniero/a de Datos con experiencia en diseño, desarrollo y mantenimiento de pipelines de datos, capaz de trabajar con herramientas modernas del ecosistema analítico y de integración. El rol tendrá foco en la construcción de flujos de datos robustos, escalables y mantenibles, apoyando procesos de analítica, reporting y migraciones de datos

Apply without intermediaries through Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines de datos utilizando Python, dbt y Airflow.
  • Implementar procesos de transformación y modelado de datos analíticos.
  • Orquestar flujos de datos asegurando confiabilidad y trazabilidad.
  • Colaborar en iniciativas de migración e integración de datos.
  • Asegurar calidad, consistencia y disponibilidad de la información.
  • Documentar procesos y buenas prácticas técnicas.

Requerimientos del cargo

  • Python para desarrollo de pipelines y lógica de transformación.
  • dbt para modelado, transformación y versionamiento de datos analíticos.
  • Apache Airflow para orquestación y scheduling de procesos de datos.
  • SQL avanzado para consultas, transformaciones y validaciones.
  • Inglés nivel B2 (capacidad para comunicación técnica).

Opcionales

  • Experiencia en migraciones de datos entre sistemas.
  • Experiencia en integraciones de datos desde múltiples fuentes.
  • Buen entendimiento de arquitecturas de datos modernas (ELT / Analytics Engineering).
  • Experiencia en entornos productivos y manejo responsable de cambios.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Apply to this job at getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Apply without intermediaries through Get on Board.

Descripción del trabajo

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Outdoors The premises have outdoor spaces such as parks or terraces.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $3400 - 4000 Full time
Sr Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Python SQL NoSQL

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de evaluar a los solicitantes de empleo. Fundada en 2014, Checkr pone tecnología moderna impulsada por aprendizaje automático en manos de los equipos de contratación, ayudando a contratar talento con una experiencia rápida, fluida y segura.

Checkr cuenta con más de 100,000 clientes como DoorDash, Coinbase, Lyft, Instacart y Airtable. Trabajar en Checkr implica colaborar con mentes brillantes, revolucionar un sector y abrir oportunidades a candidatos que suelen pasar desapercibidos. Checkr es reconocida en la lista Forbes Cloud 200 2024 y es una empresa innovadora de Y Combinator 2023.

Find this vacancy on Get on Board.

Job functions

Acerca del equipo/puesto

Buscamos un SR Data Engineer con experiencia para incorporarse a nuestro equipo de Plataforma de Datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene plataformas de datos escalables para tomar decisiones de contratación justas y seguras.

Como ingeniero del equipo de la plataforma de datos, trabajarás en la plataforma de datos centralizada de Checkr, fundamental para la visión de la empresa. La plataforma de datos centralizada es el núcleo de todos los productos clave orientados al cliente. Trabajarás en proyectos de gran impacto que contribuyen directamente a los productos de próxima generación.

Qué harás:

  • Serás un colaborador independiente capaz de resolver problemas y ofrecer soluciones de alta calidad con una supervisión mínima/de alto nivel y un alto grado de responsabilidad.
  • Aportarás una mentalidad centrada en el cliente y orientada al producto: colaborarás con los clientes y las partes interesadas internas para resolver ambigüedades del producto y ofrecer funciones impactantes.
  • Te asociarás con ingeniería, producto, diseño y otras partes interesadas en el diseño y la arquitectura de nuevas funciones.
  • Mentalidad experimental: autonomía y empoderamiento para validar las necesidades de los clientes, conseguir la aceptación del equipo y lanzar rápidamente un MVP.
  • Mentalidad de calidad: insistes en la calidad como pilar fundamental de tus productos de software.
  • Mentalidad analítica: instrumenta y despliega nuevos experimentos de productos con un enfoque basado en datos.
  • Entrega código de alto rendimiento, confiable, escalable y seguro para una plataforma de datos altamente escalable.
  • Supervisa, investiga, clasifica y resuelve los problemas de producción que surjan en los servicios propiedad del equipo.

Qualifications and requirements

  • Inglés fluido (reporta a jefatura en USA y las entrevistas técnicas son 100% en inglés). Adjunta tu CV en inglés para postular.
  • Licenciatura en un campo relacionado con la informática o experiencia laboral equivalente.
  • Más de 6-7 años de experiencia en desarrollo en el campo de la ingeniería de datos (más de 5 años escribiendo PySpark).
  • Experiencia en la creación de canalizaciones de procesamiento de datos a gran escala (cientos de terabytes y petabytes), tanto por lotes como en flujo continuo.
  • Experiencia con ETL/ELT, procesamiento de datos en flujo y por lotes a gran escala.
  • Gran dominio de PySpark, Python y SQL.
  • Experiencia en la comprensión de sistemas de bases de datos, modelado de datos, bases de datos relacionales, NoSQL (como MongoDB).
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake y AWS stack (EKS, EMR, Serverless, Glue, Athena, S3, etc.).
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Gran capacidad para resolver problemas y atención al detalle.

Desirable skills

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.
  • Conocimiento de almacenes de datos gráficos y vectoriales (preferible).

Conditions

  • Trabajo híbrido, vamos a la oficina 3 días a la semana y 2 días desde casa.
  • Almuerzo los días que vayas a la oficina.
  • Un entorno colaborativo y dinámico.
  • Contrato indefinido
  • Formar parte de una empresa internacional con sede en Estados Unidos.
  • Bono de $3.000 USD al año para formación y desarrollo.
  • Remuneración competitiva y oportunidad de crecimiento profesional y personal.
  • Cobertura médica, dental y oftalmológica al 100 % para empleados y familiares a cargo.
  • 5 días extra de vacaciones
  • RSU

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Meals provided Checkr provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer / Sector Bancario
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y América Latina, en Devsu hemos desarrollado soluciones de alto impacto en industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de aprender constantemente y participar en proyectos desafiantes y de alto impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en distintos productos y soluciones de software.

Formarás parte de un entorno multicultural, con una estructura organizacional plana, donde el trabajo en equipo, el aprendizaje continuo y la flexibilidad son pilares fundamentales.

Actualmente, estamos en la búsqueda de un DATA ENGINEER experimentado para sumarse a nuestro equipo de forma híbrida en Quito/Ecuador

© Get on Board.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
VIEW JOB APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Data Analyst / Data Engineer/Solution Architect
  • MAS Analytics
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Apply without intermediaries through Get on Board.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Apply exclusively at getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos Middle
  • BICE VIDA
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

This posting is original from the Get on Board platform.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un/a Ingeniero/a de Datos Middle para integrarse al COE de Datos e IA, perteneciente a la Gerencia de Planificación y Gobierno de Datos.

🚀 Objetivo del cargo

Apoyar en el diseño e implementación de soluciones tecnológicas asociadas al manejo de datos que permitan fomentar el uso y la toma de decisiones basadas en datos a nivel compañía. a

Se espera que pueda liderar iniciativas dentro de la misma índole (datos) con el apoyo de un Ingeniero de Datos Senior o del Líder de Datos. Aplicar buenas prácticas de arquitectura y gobernanza, y colaborar con áreas de negocio, analítica y TI para habilitar un ecosistema de datos moderno, escalable y seguro ☁️📊

🔍 Principales funciones:

  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Asegurar el correcto uso de los servicios AWS en términos de usabilidad y costos.
  • Diseñar e implementar soluciones automatizadas que consideren los lineamientos de arquitectura y ciberseguridad de la compañía

✨ Si te motiva trabajar con datos, tecnología y generar impacto en el negocio, ¡te invitamos a postular y ser parte de BICE Vida!

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 3 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas y 2 años en AWS.
  • Conocimiento y experiencia trabajando en AWS (Intermedio o avanzado): A nivel práctico, no sólo académico, servicios como: Lambda Function, Glue Jobs (Spark y PythonShell), Glue Crawlers, DMS, Athena, Lake Formation, EventBridge, Step Functions.
  • Experiencia y conocimento en Herramientas de consulta de datos (SQL Intermedio o Avanzado y Python Intermedio o Avanzado) y versionamiento de códigos fuentes.
  • Participación en proyectos relacionados a datos ( Ingeniero de Datos p Analista de Datos trabajando en modelamiento de datos).

✨Sumarás puntos si cuentas con:

  • Terraform
  • Spark
  • Tableau
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Analyst – Digital Analytics & BI
  • WiTi
  • Montevideo &nbsp Santiago (Hybrid)
JavaScript Python Analytics SQL

WiTi es una empresa chilena de tecnología con presencia en Chile, Uruguay y Colombia, dedicada a la innovación en software y soluciones tecnológicas. Formamos parte de un equipo que presta servicios a clientes de primer nivel y trabajamos con un enfoque ágil para impulsar soluciones de analítica digital y BI en grandes retailers con operaciones en múltiples países de Latinoamérica. El proyecto actual se centra en analizar el comportamiento de usuarios en canales digitales (Web y App) para optimizar la experiencia de compra de millones de clientes a través de e-commerce. El Business Analyst reporta al equipo de Digital Analytics & BI y colabora con equipos de desarrollo, marketing y producto para asegurar que las estrategias de medición sean correctas, que el tagging y los pixeles se implementen adecuadamente y que existan dashboards útiles y accionables.

Apply exclusively at getonbrd.com.

Funciones y responsabilidades

  • Generar documentos de marcaje basados en estrategias de medición para equipos de desarrollo.
  • Gestionar y hacer seguimiento del tagging con equipos técnicos y proveedores externos cuando aplique.
  • Implementar tagging y píxeles usando Google Tag Manager (GTM) para Web y App.
  • Analizar datos para identificar quiebres en la experiencia y proponer mejoras concretas.
  • Crear dashboards y visualizaciones sobre el comportamiento de usuarios en Web y App para soportar la toma de decisiones.
  • Realizar seguimiento al embudo de compra en distintos e-commerce y monitorizar KPIs de conversión y retención.
  • Buscar proactivamente oportunidades de mejora y priorizar iniciativas en colaboración con stakeholders.
  • Realizar QA continuo del marcaje para garantizar datos precisos y confiables.

Descripción y requisitos

Buscamos un Business Analyst con al menos 1 año de experiencia en roles similares, orientado a análisis de experiencia de usuario y medición de datos en entornos de retail y e-commerce. Requerimos conocimiento intermedio de Google Analytics, Google Tag Manager, BigQuery y Looker, además de SQL a nivel intermedio, todo lo anterior es EXCLUYENTE. Se valora un nivel de Inglés avanzado. Es deseable disponer de experiencia con JavaScript para GTM y Python.

El perfil ideal posee habilidad para trabajar de forma proactiva en un entorno ágil, capacidad de comunicar hallazgos de negocio a distintas audiencias y una mentalidad orientada a la mejora continua. Si te apasiona la analítica, la toma de decisiones basada en datos y quieres formar parte de un equipo dinámico, te invitamos a postularte.

Requisitos deseables

Conocimientos prácticos de JavaScript para GTM y Python para soporte de scripts de análisis y automatización de datos. Experiencia en creación de dashboards avanzados y storytelling de datos para stakeholders de negocio. Capacidad de trabajar con datasets grandes y complejos, optimización de consultas en BigQuery y comprensión de modelos de atribución. Buenas habilidades de comunicación en español e inglés, y experiencia previa trabajando en contextos multicanal (Web, App, Marketing).

Beneficios

En WiTi, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
Gross salary $1400 - 1800 Full time
Business Analyst
  • ICONSTRUYE
  • Santiago (Hybrid)
Excel SQL Business Intelligence Power BI

Sé el/la próxim@ Business Analyst que impulse la revolución digital de la construcción.

Acompáñanos a transformar una de las industrias más grandes de la región. En iConstruye no somos solo una plataforma; somos el ecosistema que conecta miles de obras, integrando la solución completa desde el pedido de materiales hasta el pago. Movemos los proyectos que construyen el futuro de Chile, Perú y Colombia.

Nos hemos propuesto romper los esquemas de lo tradicional. Somos un equipo apasionado por la tecnología, que se levanta cada día para resolver desafíos logísticos complejos y crear impacto real en más de 4.000 clientes. Si tienes hambre de crecimiento y quieres que tu talento se traduzca en resultados, este es tu lugar.

Apply directly on the original site at Get on Board.

Tus próximos desafíos 🚀:

Como Business Analyst, no vienes a seguir instrucciones, vienes a proponer. Serás el cerebro analítico detrás de la experiencia de nuestros clientes, transformando datos en estrategias que escalen nuestra operación.

  • Rompe el status quo: Analiza nuestros procesos actuales, encuentra las grietas y diseña soluciones que lleven la eficiencia al siguiente nivel.
  • Innovación con IA & Automatización: Este es tu laboratorio. Liderarás la identificación e implementación de herramientas de Inteligencia Artificial y automatización avanzada para eliminar tareas repetitivas, optimizar flujos de trabajo y escalar la personalización de nuestra atención.
  • Domina la data: Define y monitorea los KPIs que realmente importan (Salud del cliente, Adopción) y construye dashboards que nos permitan anticiparnos al futuro.
  • Tech Stack Owner: Serás el referente en la administración y optimización de nuestro ecosistema (Zendesk, Hubspot, Jira), asegurando que la tecnología trabaje para nosotros.

¿Qué esperamos🚀?

Buscamos a alguien que quiera desafiarse a sí mismo. No importa si tienes poca experiencia, importa tu capacidad de análisis y tus ganas de comerte el mundo.

  • Formación: Ing. Comercial, Civil Industrial o afín.
  • Experiencia: 0 a 2 años en Customer Success, Ops o Consultoría.
  • Tus armas: Excel/Sheets avanzado y pasión por visualizar datos (Power BI, Tableau, Looker).
  • Plus: Si manejas SQL o tienes experiencia configurando automatizaciones (Zapier/Make) o prompts de IA, ¡ya tienes un pie adentro!

Etapas del proceso🚀:

  • Entrevista online Team People (fit cultural).
  • Entrevista online con tu líder directo.
  • Entrevista presencial final con CEO.

✨Nuestros beneficios, pensados para ti✨:

  • 🌴 Más tiempo libre: Disfruta de 5 días extra de descanso al año para desconectarte y recargar energías.
  • 🍔 Amipass: tu partner foodie: Con tu tarjeta Amipass, elige libremente: un delivery en tu serie favorita, una salida con amigos o la compra del mes en el súper. Tú decides cómo darte el gusto
  • 👨‍⚕️ Siempre protegido: Te cuidamos a ti y a quienes quieres con seguro complementario de salud, dental y de vida.
  • 🏠 Trabajo a tu estilo: Con nuestra modalidad híbrida, combina lo mejor del home office y la oficina.
  • 👩‍👦 Viernes hasta las 14.00 hrs en vacaciones de verano y de invierno.
  • 🎂 Tu día, tuyo de verdad: En tu cumpleaños, te damos la tarde libre para celebrarlo como se merece.
  • 💸 Ajuste anual por IPC.
  • 💰 Aguinaldo en Fiestas Patrias y de Navidad.

Health coverage ICONSTRUYE pays or copays health insurance for employees.
Computer provided ICONSTRUYE provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ICONSTRUYE gives you paid vacations over the legal minimum.
Beverages and snacks ICONSTRUYE offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Analyst – Digital Analytics
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Python Analytics SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales. Diseñamos equipos ágiles para Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en el cliente, con metodologías ágiles, gestión del cambio y desarrollo de productos. Participarás en proyectos innovadores en un entorno colaborativo orientado al crecimiento profesional y al intercambio de conocimientos entre equipos.

Find this vacancy on Get on Board.

Principales responsabilidades

  • Definir y documentar estrategias de medición digital (tagging Web y App).
  • Coordinar y dar seguimiento a la implementación técnica con equipos de desarrollo.
  • Implementar y validar tags, píxeles y eventos usando Google Tag Manager.
  • Analizar funnels de conversión para detectar fricciones y oportunidades de mejora.
  • Construir y mantener dashboards en Looker Studio / Looker / BigQuery.
  • Monitorear el funnel de compra de los diferentes e‑commerce del grupo.
  • Ejecutar QA continuo para asegurar calidad y confiabilidad de los datos.
  • Proponer mejoras proactivas en conversión, eficiencia y experiencia de usuario (UX).

Requisitos

Al menos 2 años de experiencia en roles de Digital Analytics, CRO, BI o Data Product. Dominio intermedio/avanzado de Google Analytics / GA4 y Google Tag Manager (implementación y debugging), BigQuery y Looker / Looker Studio. SQL a nivel intermedio. Se valora: JavaScript aplicado a GTM y/o Python para análisis avanzado. Inglés intermedio (lectura y escritura técnica).

Requisitos deseables

Experiencia trabajando en entornos multinegocio y con métricas de e‑commerce a gran escala. Conocimientos en gestión de datos, calidad de datos y pruebas de validación de tagging. Habilidades de comunicación para presentar hallazgos y recomendaciones a stakeholders y equipos técnicos. Capacidad para trabajar de forma proactiva en entornos dinámicos y con metodologías ágiles.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst I
  • Signant Health
Agile Data Analysis SQL Microsoft Office

Want to do the Best Work of Your Life?

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations and reimagining the path to proof.

Working at Signant Health puts you in the very heart of the world’s most exciting sector - a high-growth, dynamic company in an extraordinary industry.

Where do you fit in?

The Data Analyst I is responsible for working with the Technical Delivery / Product Development staff to verify data changes, as well as data transfers.

Send CV through Get on Board.

Job functions

  • Verify SQL database contents and changes using source documentation and the database audit trail.
  • Verify data changes against Data Change Guides (DCGs) and associated risk/impact assessments.
  • Verify structure and content of client-requested database transfer datasets.
  • Verify Data Transfers/Reports per approved Data Transfer Specifications.
  • Verify data integrity across multiple databases using manual and automated techniques.
  • Perform routine data quality checks and report on the results on a regular basis.
  • Some data entry of data change requests (Change Forms).
  • Participates in special data-related projects as needed.
  • Demonstrate extreme attention to detail and organization in all aspects of work.
  • Follow Bracket Standard Operating Procedures for data change management, data transfer verification and risk/impact assessment documentation.
  • Some technical support after-hours, on-call time may be needed.
  • Other project work and responsibilities as required.

Qualifications and requirements

  • 1-3 years of experience working in a data-driven environment.
  • Working knowledge of Structured Query Language (SQL), as well as Microsoft Windows 2000/2003/XP and the suite of Microsoft Office applications.
  • Experience with standard data mining and data presentation techniques.
  • Proven ability to handle multiple competing priorities in a fast-paced work environment with minimal direct supervision.
  • Must have excellent written communication skills, including the ability to effectively document procedures, processes and results.
  • Demonstrated ability to meet deadlines & multi-task in a fast-paced work environment.
  • Demonstrate extreme attention to detail and organization in all aspects of work.
  • Must have very strong skills with Microsoft Office applications.
  • Must be comfortable working with business users and technical teams.

Desirable skills

  • Familiarity with SQL Queries is a plus.
  • Working knowledge of Visual Basic is a plus.
  • Familiarity with GCP and 21 CFR Part 11 is a plus.

Conditions

Pet-friendly Pets are welcome at the premises.
Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Semi Senior Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Web server Virtualization
BC Tecnología es una consultora de TI especializada en servicios IT, con foco en diseñar soluciones y formar equipos que acompañen a clientes en sectores como financiero, seguros, retail y gobierno. El proyecto en curso busca a un/a Semi Senior Data Engineer para un equipo orientado a la gestión de datos y la construcción de pipelines robustos. El objetivo es habilitar flujos de datos eficientes, escalables y seguros, alineados a prácticas de gobierno de datos, sinergias con arquitectos y líderes técnicos, y entrega continua de valor al negocio.
Trabajarás en un entorno que premia la colaboración, la innovación y la mejora continua, con un mix de trabajo híbrido en Las Condes y presencia colaborativa cuando se requiera, para asegurar la cohesión técnica y la calidad de los entregables.

Job opportunity on getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines de datos eficientes para ingesta, transformación y disponibilización de datos, priorizando escalabilidad y rendimiento.
  • Asegurar la calidad, consistencia y confiabilidad mediante pruebas y validaciones técnicas a lo largo del ciclo de datos.
  • Implementar y mantener flujos CI/CD en entornos de desarrollo y producción para pipelines de datos.
  • Diseñar soluciones avanzadas con resiliencia, idempotencia y arquitecturas orientadas a eventos (event-driven).
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje, promoviendo prácticas de data discipline.
  • Optimizar procesos y estándares de ingesta y transformación, proponiendo mejoras continuas y buenas prácticas.
  • Colaborar estrechamente con arquitectos y líderes técnicos para asegurar el cumplimiento de lineamientos y arquitectura de referencia.

Requisitos y perfil

Estamos buscando un/a profesional con al menos 2 años de experiencia diseñando y construyendo pipelines de datos. Se requiere dominio avanzado de Python, Spark y SQL, y experiencia trabajando en AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia en arquitecturas Lakehouse (Delta Lake, Apache Iceberg o Apache Hudi).
Competencias técnicas complementarias incluyen visión de datos, capacidad para resolver problemas complejos, enfoque en calidad y buenas prácticas de pruebas, y experiencia en entornos de entrega continua. Se valora pensamiento analítico, proactividad, creatividad y habilidad para comunicar resultados a equipos multidisciplinarios. Se ofrece un entorno de aprendizaje y desarrollo contínuo, con foco en crecimiento profesional y trabajo colaborativo.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2700 - 3500 Full time
Staff Data Analyst
  • Checkr
  • Santiago (Hybrid)
Data Analysis SQL Communication Data Modeling

Checkr está creando una plataforma de datos para facilitar la toma de decisiones seguras y justas. Fundada en 2014, la tecnología innovadora y la sólida plataforma de datos de Checkr ayudan a los clientes a evaluar riesgos y garantizar seguridad y cumplimiento normativo para crear lugares de trabajo y comunidades de confianza. Checkr cuenta con más de 100.000 clientes, entre los que se incluyen DoorDash, Coinbase, Lyft, Instacart y Airtable. Como Staff Data Analyst, trabajarás codo con codo con varios departamentos de la empresa para desarrollar modelos complejos y comunicar de forma eficaz su impacto en el negocio, garantizando que Checkr mantenga su posición de liderazgo en eficiencia, calidad y otras métricas clave identificadas por ti y las partes interesadas pertinentes. Esta función fundamental pertenece a la organización de la plataforma de datos y reportarás directamente al jefe de la plataforma de datos.

Send CV through Get on Board.

Responsabilidades del cargo

  • Colaborar con las partes interesadas de la empresa para obtener un profundo conocimiento de nuestros productos y clientes.
  • Comunicar de manera eficaz las conclusiones y recomendaciones de tu análisis a un público no técnico en todos los niveles de la organización.
  • Colaborar estrechamente con los propietarios de productos y los socios financieros para analizar el valor de las nuevas funciones, mejoras y proyectos.
  • Basándote en análisis exploratorios, crear perfiles de clientes y desarrollar métricas para informar las estrategias de precios y monetización.
  • Trabajar con ingenieros para desarrollar fuentes de datos y métricas básicas que puedan utilizar toda la empresa.
  • Evangelista de la experimentación: educar y promover una cultura basada en los datos a través de la experimentación.

Calificaciones y Requisitos del cargo

  • Más de cuatro años de experiencia en un puesto altamente analítico, con al menos tres años en un puesto de análisis de productos/ciencia de datos.
  • Competencia avanzada en SQL, así como comprensión de los principios del almacenamiento de datos, incluido el modelado de datos; se valorará la experiencia con dbt.
  • Excelentes habilidades analíticas y de resolución de problemas, con capacidad para identificar y priorizar oportunidades de crecimiento basadas en datos y resultados de experimentos.
  • Fuertes habilidades de comunicación escrita y verbal y capacidad para sintetizar soluciones analíticas complejas en conocimientos prácticos y comunicar el impacto empresarial a un público no técnico.
  • Persona con iniciativa demostrada y excelentes habilidades para establecer prioridades, capaz de llevar a cabo proyectos con un mínimo de orientación.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Administrador de Base de Datos
  • SONDA
  • Santiago (Hybrid)
SQL Cybersecurity Database Administrator SQL Server

Somos SONDA, una empresa líder en transformación digital en la región. Buscamos fortalecer nuestro equipo de Base de Datos para impulsar soluciones que optimicen el rendimiento, la seguridad y la escalabilidad de nuestras plataformas. El proyecto central implica diseñar, optimizar y mantener infraestructuras de bases de datos para entornos de desarrollo y producción, asegurando alta disponibilidad, integridad de datos y eficiencia operativa. Trabajarás estrechamente con equipos de ingeniería, arquitectura y operaciones para entregar soluciones robustas que soporten la transformación digital de nuestros clientes.

Apply to this posting directly on Get on Board.

Funciones

  • Proporcionar desarrollo y/o soporte a la producción de bases de datos, incluyendo la creación de estructuras de almacenamiento y objetos primarios.
  • Diseñar y crear estructuras de datos, modificar esquemas para mejoras o rendimiento, y documentar interfaces y planes de base de datos.
  • Revisar y optimizar el rendimiento de bases de datos, incluyendo monitoreo, índices, planes de ejecución y estrategias de respaldo/restauración automatizadas.
  • Gestionar almacenamiento, planificación de capacidad y necesidades futuras de almacenamiento.
  • Crear scripts y programas relacionados con bases de datos para entornos de desarrollo y producción; investigar y evaluar soluciones técnicas.
  • Diseñar, probar y recomendar mejoras en procedimientos almacenados, triggers y vistas, optimizando código SQL y consultas complejas.
  • Gestionar seguridad de datos (roles, cifrado, autenticación, auditoría) y asegurar cumplimiento de políticas de seguridad.
  • Participar en proyectos de alta disponibilidad y recuperación ante desastres (HA/DR) mediante tecnologías como AlwaysOn, log shipping u otras.
  • Trabajar con certificaciones y buenas prácticas de Microsoft SQL Server y/o Azure Database, y mantener actualizados los conocimientos técnicos.

Descripción

En SONDA, buscamos un Administrador de Base de Datos con experiencia comprobable en SQL Server (2019 o superior) para unirse a nuestro equipo. El candidato ideal estará orientado a la optimización de rendimiento, gestión de seguridad y continuidad operativa, con capacidad para diseñar soluciones escalables y robustas. Se requieren más de 5 años de experiencia en administración, optimización y gestión de bases de datos SQL Server, así como conocimientos en replicación, clustering, particionamiento y gestión de logs. Debe tener experiencia en optimización de planes de ejecución, mantenimiento de respaldos, y en prácticas de seguridad avanzadas (TDE, Always Encrypted) y administración de roles. Certificaciones relevantes de Microsoft serán valoradas. Buscamos profesional proactivo, orientado a resultados, con habilidades de comunicación y trabajo en equipo, capaz de colaborar con equipos multidisciplinarios y en entornos ágil.

Deseables

Deseable contar con certificación Microsoft Certified SQL Server Database Administration o equivalente (Azure Database Administrator Associate, MCSE: Data Management and Analytics, MCITP: Database Administrator). Se valorará experiencia en entornos de alta disponibilidad, experiencia con SQL Server 2019 o superior, y conocimiento de herramientas de monitoreo y desempeño. Capacidades de scripting y automatización (PowerShell, T-SQL) y experiencia en migraciones y modernización de bases de datos en la nube serán un plus. Fuerte enfoque en calidad, seguridad y cumplimiento, con mentalidad de aprendizaje continuo y capacidad de adaptación a un entorno dinámico.

Beneficios

En SONDA promovemos la flexibilidad laboral para favorecer el equilibrio entre la vida personal y profesional.

Ofrecemos un ambiente colaborativo, diverso e innovador, que fomenta el trabajo en equipo y el respeto entre colegas.

Contamos con SONDA Academy, una plataforma educativa que impulsa el desarrollo y la evolución constante de tus habilidades profesionales de acuerdo a tus intereses.

El trabajo es híbrido, combinando jornadas presenciales y teletrabajo para adaptarnos a tus necesidades.

Además, SONDA Wellness es un programa dedicado a apoyar la salud física, mental y social de nuestros colaboradores mediante diversas iniciativas.

Promovemos un ambiente inclusivo y equitativo, asegurando igualdad de oportunidades para el desarrollo profesional y personal de todas las personas.

Health coverage SONDA pays or copays health insurance for employees.
Computer provided SONDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist Senior Freelance AWS/Sagemaker
  • CoyanServices
Python SQL Virtualization Big Data

CoyanServices busca apoyar a un cliente regional a través de una empresa tecnológica privada. El proyecto es 100% remoto y freelance, abierto a profesionales de cualquier país de Latinoamérica. Trabajarás en un entorno tecnológico moderno, con foco en soluciones analíticas para decisiones estratégicas. El equipo utiliza AWS para desplegar soluciones de ML/AI y necesitamos un Data Scientist Senior para diseñar, entrenar y desplegar modelos end‑to‑end, estandarizar ingesta y gobierno de datos en el Data Lake, y traducir insights técnicos en productos analíticos utilizables para decisiones de negocio.

Objetivos del rol:

Diseñar, entrenar y desplegar modelos de ML/AI end-to-end sobre infraestructura AWS.

Estandarizar procesos de ingesta, limpieza y gobierno de datos en el Data Lake.

Traducir insights técnicos en productos analíticos útiles para la toma de decisiones.

Apply to this job through Get on Board.

Funciones

Ingeniería de datos: Pipelines en S3, Glue, Lambda, Athena. Feature engineering, validación y monitoreo de calidad.

Modelado estadístico y ML: Regresión, clasificación, series de tiempo, NLP. Evaluación rigurosa y documentación técnica.

Deployment y MLOps: Productización en SageMaker/Lambda. CI/CD, versionamiento y monitoreo de modelos.

Análisis y comunicación: Dashboards, storytelling y soporte a decisiones estratégicas.

Gobierno y ética de datos: Mejores prácticas, documentación, reproducibilidad y cumplimiento normativo.

Requisitos y perfil

Formación en Ingeniería, Estadística, Matemáticas, Ciencias de la Computación o afines.

Python avanzado (pandas, numpy, scikit-learn, PyTorch/TensorFlow deseable).

Experiencia comprobable con AWS: S3, Athena, Data Lake, Lambda, SageMaker Studio.

Sólida base en estadística aplicada e inferencia. • Experiencia completa en ciclos de vida ML/AI.

SQL avanzado (Athena, Presto, Redshift).

Control de versiones, documentación y testing de modelos/datos.

Deseables: Conocimientos en PySpark o SparkSQL. • Visualización con herramientas como Power BI.

Habilidades blandas

Pensamiento crítico y enfoque científico.

Autonomía, comunicación efectiva y colaboración.

Curiosidad y aprendizaje continuo.

Beneficios

Freelancer. Oportunidad de trabajar con una empresa tecnológica líder y un cliente regional. Modalidad 100% remota, flexible, con posibilidad de crecimiento profesional. Participación en proyectos estratégicos y exposición a tecnologías punteras en AWS y ML/AI. Agenda y horarios acordes al trabajo remoto. Si te interesa, te invitamos a aplicar para conversar sobre el encaje y próximos pasos.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

This offer is exclusive to getonbrd.com.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data
BC Tecnología es una consultora de TI con enfoque en servicios IT y desarrollo de proyectos para clientes de sectores como finanzas, seguros, retail y gobierno. En este proyecto de Data Engineering en Google Cloud Platform (GCP), nos enfocamos en la ingesta, modelamiento y orquestación de datos para apoyar necesidades del negocio. Trabajamos con equipos multidisciplinarios, implementando soluciones escalables y de alta disponibilidad, para entregar dashboards, reporting y capacidades analíticas a partir de datos en la nube.

Apply to this job without intermediaries on Get on Board.

Funciones

  • Implementar procesos de ingesta y modelamiento de datos en Google Cloud Platform (GCP).
  • Construir y optimizar ETLs y pipelines en BigQuery para apoyar reporting y analítica.
  • Automatizar procesos con Cloud Functions para mejorar la operatividad y la fiabilidad de los flujos de datos.
  • Orquestar tareas con Airflow para gestionar dependencias, monitorización y cumplimiento de SLA.
  • Trabajar con repositorios en GitLab para control de versiones y colaboración entre equipos.

Requisitos y perfil

Buscamos un Data Engineer con experiencia en GCP y un sólido dominio de SQL y Python. Se requiere experiencia práctica en BigQuery, Cloud Functions, Cloud Storage y Airflow, así como manejo de herramientas de control de versiones (GitLab, GitHub o Bitbucket). Debe demostrar capacidad para diseñar y mantener pipelines de datos robustos, con enfoque en calidad, rendimiento y escalabilidad. Se valorará experiencia en entornos colaborativos y en proyectos con enfoque en negocio y análisis de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst – Proyecto de Migración Digital
  • BC Tecnología
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Data Analyst para formar parte de un proyecto estratégico de Migración Digital enfocado en evolucionar el canal digital del cliente BFPE. Participarás en el desarrollo, documentación y mejora continua de funcionalidades para una nueva plataforma web, como parte de la migración desde Telegestor APK. El rol combina desarrollo, transformación de datos y optimización de procesos para entregar un canal digital robusto y escalable.
El proyecto implica trabajo conjunto con equipos técnicos y funcionales para asegurar requisitos, calidad y despliegues eficientes. Serás parte de un equipo ágil, con enfoque en innovación y mejora continua, contribuyendo a una migración exitosa que impacta directamente la operación digital.

Apply through Get on Board.

Funciones

  • Desarrollar nuevas funcionalidades para el canal digital utilizando Python y HTML5.
  • Participar en la transformación de datos y construcción de pipelines ETL.
  • Analizar, diseñar y documentar especificaciones técnicas y funcionales.
  • Implementar consultas y procesos de explotación de datos en SQL Server y BigQuery.
  • Gestionar control de versiones y despliegues con GitLab.
  • Colaborar con equipos técnicos y funcionales para asegurar el cumplimiento de los requisitos.
  • Participar en pruebas, validaciones y despliegue de mejoras.
  • Proponer mejoras que fortalezcan la plataforma digital.

Descripción

Buscamos un Data Analyst con 2 a 3 años de experiencia en roles similares, con capacidad para trabajar en un entorno regulado y centrado en datos. Requisitos técnicos demostrables: SQL Server, Python, BigQuery, ETLs, GitLab y HTML5. Se valorará experiencia en banca, finanzas o industrias altamente reguladas. El/la candidata ideal será analítico/a, orientado/a a la calidad de datos, con habilidades para documentar y comunicar hallazgos de manera clara, y capaz de colaborar eficazmente con equipos multifuncionales. Se ofrece una modalidad híbrida en Lima y la posibilidad de participar en un proyecto estratégico con impacto directo en el canal digital del cliente, dentro de un entorno de aprendizaje y desarrollo continuo.

Deseable

Experiencia previa en proyectos de migración de plataformas digitales y en entornos de alta seguridad de información. Conocimiento de herramientas de visualización (Power BI, Tableau) y metodologías ágiles. Experiencia en integración de datos entre sistemas legados y plataformas modernas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2600 Full time
DBA Oracle
  • Coderslab.io
Python SQL Oracle Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2400 Full time
Consultor Científico de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Data Analysis SQL

🚀 ¡Estamos buscando talento para el equipo Lab de Microsystem! ⚗️

Si te gustan los datos, la programación y los desafíos que realmente generan impacto, acá hay una oportunidad muy entretenida. Estamos desarrollando proyectos innovadores ligados a Machine Learning, ingeniería y ciencia de datos: desde modelos predictivos de pesca (sí, con datos reales y complejos 👀), hasta modelos bancarios inteligentes que anticipan comportamientos y mejoran decisiones de negocio.

Buscamos a alguien motivado, curioso y con ganas de aprender tecnologías de punta. Alguien que disfrute mezclar lo técnico con lo consultivo: entender al cliente, su contexto y transformar eso en modelos funcionales y útiles.

Trabajarás con un equipo joven, colaborativo y con experiencia 🤓, en un ambiente donde se prueba, se crea y se innova. Si te gusta programar, experimentar y resolver problemas reales, este es tu lugar 💪.

¿Te interesa o conoces a alguien? ¡Hablemos! 🚀

Apply directly from Get on Board.

Funciones del cargo

1. Levantamiento y entendimiento del negocio con el cliente

  • Participar en reuniones con clientes para comprender sus necesidades, procesos, problemas y expectativas.
  • Traducir requerimientos de negocio en objetivos analíticos y diseños de modelos.
  • Presentar hallazgos, resultados y recomendaciones de manera clara y comprensible.

2. Preparación, exploración y análisis de datos

  • Recopilar, limpiar y transformar datos provenientes de distintas fuentes.
  • Realizar análisis exploratorio (EDA) para descubrir patrones, anomalías y oportunidades de modelamiento.
  • Definir y construir pipelines de preparación de datos cuando sea necesario.

3. Construcción y entrenamiento de modelos predictivos

  • Diseñar, programar y entrenar modelos de Machine Learning (supervisados y no supervisados).
  • Seleccionar técnicas adecuadas según el problema: regresión, clasificación, series de tiempo, clustering, árboles, ensembles, etc.
  • Ajustar, validar y optimizar modelos para maximizar desempeño y robustez.

4. Implementación y despliegue de modelos

  • Implementar pipelines end-to-end: desde ingesta de datos hasta predicciones automatizadas.
  • Trabajar con herramientas y entornos de desarrollo modernos (Python, Jupyter, Git, APIs, etc.).
  • Colaborar con equipos Dev/Data Engineering para integrar los modelos en producción.

5. Documentación y comunicación

  • Documentar procesos, decisiones técnicas, métricas, versiones de modelos y flujos de trabajo.
  • Preparar presentaciones y reportes para explicar resultados a stakeholders técnicos y no técnicos.

6. Iteración, mejora continua y acompañamiento al cliente

  • Monitorear el rendimiento de los modelos y proponer mejoras.
  • Acompañar al cliente en el uso, interpretación y adopción del modelo.
  • Levantar nuevas oportunidades de mejora o proyectos relacionados.

7. Participación activa en el equipo Lab

  • Compartir aprendizajes, buenas prácticas y nuevos enfoques con el equipo.
  • Explorar tecnologías emergentes y sugerir innovaciones aplicables a los proyectos.

Requerimientos del cargo

Requisitos Técnicos (Hard Skills)

  • Formación en Ingeniería, Estadística, Matemáticas, Computación o carrera afín.
  • Experiencia comprobable en construcción de modelos predictivos (regresión, clasificación, series de tiempo, clustering, etc.).
  • Dominio de Python para ciencia de datos (pandas, scikit-learn, NumPy, matplotlib, etc.).
  • Conocimientos sólidos en limpieza, transformación y análisis exploratorio de datos (EDA).
  • Manejo de bases de datos y consultas SQL.
  • Conocimiento en APIs REST e integración de datos.
  • Capacidad para construir pipelines end-to-end de ML (ingesta, entrenamiento, evaluación, despliegue).
  • Manejo a nivel básico de herramientas analíticas como Power BI y/o Tableau para exploración y entendimiento de datos.
  • Deseable: experiencia en ML Ops, automatización, versionado de modelos o despliegue en la nube (AWS, Azure, etc.).

Requisitos Interpersonales (Soft Skills)

  • Habilidad para comunicarse claramente con clientes no técnicos.
  • Capacidad de levantar requerimientos, entender el contexto del negocio y traducirlo a problemas analíticos.
  • Buenas habilidades de presentación y storytelling con datos.
  • Proactividad, autonomía y ganas de aprender tecnologías nuevas.
  • Trabajo colaborativo en equipos multidisciplinarios.

Otros Deseables

  • Experiencia en consultoría o interacción directa con clientes.
  • Conocimiento en herramientas de visualización adicionales (Tableau, Looker, Power BI, etc.).
  • Inglés intermedio para lectura de documentación y soporte técnico.
  • Conocimiento de metodologías como CRISP-DM y otras a fines.
  • Conocimiento en otros lenguajes (TypeScript, JavaScript, etc.)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Education stipend Microsystem covers some educational expenses related to the position.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer GCP – Proyecto
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Git SQL
BC Tecnología es una consultora de TI con experiencia en gestionar portafolios, desarrollar proyectos y realizar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. En BC Tecnología promovemos soluciones a la medida y formamos equipos ángeles para infraestructuras TI, desarrollo de software y unidades de negocio. Nuestra operación se apoya en metodologías ágiles, enfoque en el cliente y desarrollo de productos. El proyecto actual se enfoca en diseñar, construir y optimizar pipelines de datos en GCP para clientes de alto nivel, garantizando disponibilidad y calidad de la información para analytics y reporting.

Find this vacancy on Get on Board.

Funciones

  • Construcción, mantenimiento y optimización de pipelines de datos en Google Cloud Platform (GCP).
  • Desarrollo y soporte de ETLs eficientes y escalables, con énfasis en rendimiento y confiabilidad.
  • Modelado de datos para analytics y reporting, asegurando estructuras que soporten reporting y dashboards.
  • Automatización de procesos y flujos de datos utilizando Airflow/Cloud Composer.
  • Colaboración con equipos de datos y negocio para garantizar calidad, disponibilidad y acceso a la información.
  • Implementación de buenas prácticas de versionado y control de cambios (Git, GitLab/Bitbucket/GitHub).

Requisitos y habilidades

• Mínimo 3 años de experiencia como Data Engineer o rol equivalente en proyectos de datos.
• Sólidos conocimientos de SQL y Python para construcción de transformaciones y consultas analíticas.
• Experiencia con servicios de GCP (BigQuery, Cloud Functions, Cloud Composer/Airflow, Cloud Storage).
• Capacidad para diseñar y modelar datos en entornos GCP con foco en analítica y reporting.
• Experiencia con herramientas de control de versiones (GitLab, Bitbucket o GitHub).
• Ideal: experiencia con DBT y prácticas de ciencia de datos en la nube.
• Habilidad para trabajar en entornos colaborativos y adaptarse a cambios en proyectos y prioridades.

Requisitos deseables

• Conocimientos en orquestación de datos y pipelines complejos; experiencia con datos en entornos regulados y de alto rendimiento.
• Familiaridad con metodologías ágiles y cultura DevOps aplicada a data engineering.
• Certificaciones de GCP o fundamentos de ciencia de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data BigQuery
BC Tecnología es una consultora de TI especializada en administrar portafolios, desarrollar proyectos, realizar outsourcing y seleccionar profesionales para clientes en servicios financieros, seguros, retail y gobierno. Diseñamos equipos de trabajo ágiles para Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio, con un enfoque en cliente, metodologías ágiles, cambio organizacional y desarrollo de productos. En este rol de Data Engineer, formarás parte de proyectos innovadores con clientes de alto nivel, contribuyendo al diseño, implementación y mejora de pipelines de datos que alimentan plataformas analíticas y la toma de decisiones del negocio.

Opportunity published on Get on Board.

Responsabilidades

  • Diseñar, implementar y mantener procesos ETL/ELT para la carga de datos desde APIs hacia BigQuery.
  • Asegurar la escalabilidad, eficiencia y calidad de los pipelines de datos.
  • Aplicar buenas prácticas de versionamiento, documentación y pruebas en el código.
  • Colaborar con equipos internos para la exportación y consumo de datos desde Databricks.
  • Monitorear la calidad e integridad de los datos en los distintos entornos.
  • (Deseable) Desarrollar y mantener reportes Power BI conectados a Databricks.

Perfil y habilidades

Requisitos técnicos:
  • Experiencia mínima de 1 año en roles similares.
  • Experiencia diseñando, implementando y manteniendo procesos ETL/ELT para la carga de datos desde APIs hacia BigQuery.
  • Conocimiento intermedio en BigQuery y SQL.
  • Experiencia en Python, orientado a procesos de datos.
  • (Deseable) Experiencia en integración con APIs y uso de librerías como requests.
  • (Deseable) Conocimientos en herramientas de visualización, idealmente Power BI.
  • (Deseable) Experiencia en entornos cloud y uso de Databricks.

VIEW JOB APPLY VIA WEB
$$$ Full time
Analista de Datos / Business Intelligence
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Data Analysis Excel
En BC Tecnología somos una consultora de TI que acompaña a clientes de sectores financieros, retail, tecnológico y público. Buscamos un/a Analista de Datos / Business Intelligence para transformar datos en insights que orienten decisiones estratégicas. Trabajarás en proyectos de alto impacto dentro de equipos interdisciplinarios, implementando soluciones de analítica y BI que faciliten la toma de decisiones en clientes de alto nivel. Formarás parte de una organización con enfoque en metodologías ágiles, formación de equipos y desarrollo de productos, con un portfolio de servicios que incluye consultoría, outsourcing y desarrollo de proyectos.

Applications: getonbrd.com.

Principales Responsabilidades

  • Transformar datos en información clara y accionable mediante análisis estadístico, modelado y visualización.
  • Recopilar, analizar y transformar datos de distintas fuentes para generar insights de negocio.
  • Diseñar y desarrollar reportes, dashboards e indicadores clave (KPIs) en Power BI u otras herramientas de visualización.
  • Aplicar técnicas de análisis estadístico y exploración de datos para detectar tendencias, patrones y oportunidades de mejora.
  • Colaborar con equipos de negocio, BI y tecnología para definir métricas relevantes.
  • Asegurar la calidad, integridad y consistencia de los datos; documentar procesos y estructuras de datos.
  • Mantenerse actualizado/a en herramientas de analítica, visualización y ciencia de datos; cumplir con políticas de seguridad y cumplimiento.

Requisitos y Perfil

Formación: Ingeniería, Estadística, Economía, Ciencia de Datos, Administración u afines. Experiencia: mínimo 2 años en roles de Análisis de Datos, Inteligencia de Negocio o Control de Gestión.
Conocimientos Técnicos clave:
  • Modelado de datos y definición de KPIs.
  • Power BI (modelado, DAX, visualizaciones).
  • SQL (consultas y optimización).
  • Python y Power Automate.
  • Excel avanzado.
  • Conocimientos en estadística descriptiva e inferencial aplicada a negocio.
  • Experiencia en limpieza y transformación de datos.
Competencias blandas: pensamiento analítico, orientación a resultados, comunicación efectiva y capacidad para trabajar en equipos multidisciplinarios en entornos ágiles.

Deseables

Experiencia en proyectos de BI en el sector financiero o público; conocimiento de herramientas de visualización adicionales; experiencia en automatización de procesos y manejo de grandes volúmenes de datos; habilidad para traducir requerimientos de negocio en soluciones técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Ingeniero/a de Continuidad Operacional 7x7
  • Contac Ingenieros
  • Santiago (In-office)
C Python Data Analysis SQL

Contac Ingenieros es una empresa especializada en proveer soluciones integrales para la industria minera, enfocándose en la optimización y modernización de procesos mediante tecnología y conocimiento especializado. El proyecto se centra en asegurar la continuidad operacional a través de soluciones digitales, y mejora continua, con un enfoque en disponibilidad, confiabilidad y oportunidad de los datos que respaldan la toma de decisiones en procesos mina-planta. El equipo trabaja en un entorno de analítica avanzada, integrando herramientas de datos y plataformas para garantizar la continuidad de las operaciones mineras y la entrega de reportes ejecutivos confiables.

Apply to this job without intermediaries on Get on Board.

Principales Funciones

  • Revisar disponibilidad de aplicativos y la correcta ejecución de servicios y procesos de ingestas asociadas a iniciativas de analítica avanzada.
  • Generar hot fixes necesarios para garantizar la continuidad operacional de las plataformas de analítica avanzada.
  • Proponer y ejecutar mejoras de procesos para optimizar tareas que se vean impactadas.
  • Revisar y medir el impacto de ajustes de código y resolver de acuerdo a la criticidad de cada error.
  • Asegurar la integridad de las ingestas de datos para reportes y rutinas ejecutivas.
  • Verificar la ejecución y envío correcto de información de reportes ejecutivos, cotejando la información con parámetros operacionales.
  • Ejecutar procesos de forma manual cuando sea necesario.
  • Brindar soporte operacional presencial para necesidades operativas.

Requisitos

  • Título en Ingeniería en Informática, Civil o carrera afín.
  • Conocimientos en análisis de datos, reportabilidad y KPIs operacionales.
  • Manejo de herramientas como SQL, PI System, Power BI, Python y la suite Microsoft.
  • Conocimiento de procesos mineros.
  • Capacidad de aprendizaje, proactividad y orientación al cliente.
  • Disponibilidad para trabajar en Jornada 7X7 con presencialidad en la comuna de Las Condes.

Deseables

Experiencia previa en continuidad operacional o en roles de analítica de datos en minería. Conocimientos en C#, ETL, y manejo de entornos de nube. Habilidades de comunicación efectiva y trabajo en equipo, con enfoque en resolución de problemas y entrega de valor a la operación minera.

Beneficios

  • Seguro Complementario de Salud
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

VIEW JOB APPLY VIA WEB
Gross salary $3000 - 5000 Full time
Senior Data Engineer – AI Data Infrastructure & Automation
  • Common Forge Ventures
Python SQL Cloud Computing Automation

Common Forge Ventures is seeking a Senior Data Engineer to join one of our venture studio startups, a high-growth company building the world’s most robust, contextualized buyer intelligence platform for investment banks, private equity, and strategic acquirers. You will own and evolve the data infrastructure that ingests, cleanses, and enriches large-scale data from APIs, web scraping agents, LLM outputs, and internal datasets. This role focuses on scalable pipelines, data governance, AI agent orchestration, and seamless integration with product teams to deliver reliable data APIs and feeds that power advanced buyer insights.

Apply to this job from Get on Board.

Key Responsibilities

  • Data Architecture & Pipelines: Design and optimize large-scale ETL/ELT pipelines across structured and semi-structured data sources. Implement data validation, normalization, and reconciliation frameworks to ensure data integrity. Automate ingestion and transformation processes using orchestration tools.
  • AI Agent Orchestration & Integration: Develop, train, and refine LLM-based data agents to collect, clean, update, and infer new attributes for buyer profiles. Build robust prompting architectures, JSON schema validation, and feedback loops to ensure high-quality structured outputs. Collaborate to optimize agent reasoning, reduce hallucinations, and integrate embeddings for context-aware inference.
  • Data Governance & Quality: Define standards for data versioning, lineage, and observability. Build quality-control layers for agent-generated data, including confidence scoring, human-in-the-loop validation, and automated correction mechanisms. Ensure compliance with data governance, privacy, and security requirements.
  • Collaboration & Product Integration: Work cross-functionally with AI, product, and engineering teams to deliver data APIs and feeds. Partner with leadership to prioritize data reliability, scalability, and innovation. Lead ongoing improvements to the data infrastructure roadmap.

Required Skills & Experience

5+ years in data engineering (or similar) with strong experience in Python (Pydantic a bonus), SQL, and orchestration frameworks. Proficiency with cloud data stacks (including GCP). Demonstrated ability to design or integrate AI/LLM agents for data collection, enrichment, or inference tasks. Track record of building structured data pipelines from unstructured sources, with error recovery, validation, and monitoring. Deep understanding of prompt engineering, function calling, embedding-based retrieval, and data labeling workflows. Excellent communication, documentation, and cross-team collaboration skills. You care deeply about your craft and maintain clean, scalable projects even when not directly supervised.

Desirable Skills & Experience

Familiarity with LangChain or other agent frameworks (e.g., LlamaIndex, Haystack), tool-calling, and similar agent orchestration technologies. Experience with data quality scoring, schema evolution, and metadata management (dbt, Great Expectations, etc.). Background in investment data, market intelligence, or deal-sourcing platforms. Experience leading small data or engineering teams.

Benefits & Perks

From Common Forge Enterprises, you will enjoy a remote working environment with flexible hours, enabling you to balance personal and professional commitments effectively. We prioritize opportunities for professional development and growth, fostering an inclusive and collaborative team culture. Join us to access the latest technologies and tools as we work toward impactful solutions together! 🚀

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Analista de Datos BI
  • Gatblac
  • Santiago (In-office)
Data Analysis SQL Business Intelligence Power BI

Gatblac es una empresa de tecnología con 9 años en el mercado, dedicada al desarrollo de soluciones a medida para importantes clientes de la industria nacional.
Contamos con un equipo de más de 90 profesionales, con amplia experiencia en el mercado bursátil, bancario y maquinarias.

Trabajamos con metodologías apoyadas en principios ágiles, que nos permiten generar desarrollos incrementales, por etapas/sprints, con el compromiso de brindar sistemas de calidad, escalables y extensibles.

Apply exclusively at getonbrd.com.

Funciones del cargo

Buscamos Ingeniera/o en Informática, Analista Programador/a o Profesional afín, responsable de la creación e implementación de reportes de gestión que permitan a la empresa tomar decisiones y generación de planes de mejora.
El profesional participará en proyectos de tecnología para importantes clientes de Gatblac en industrias tales como financiera, bursátil, maquinarias y minería.

Sus principales funciones serán:

  • Analizar y construir consultas de base de datos.
  • Confeccionar reportería BI (dashboard, tableros) a partir de orígenes de datos de clientes.
  • Integrar múltiples orígenes de datos en plataformas de BI, verificando su integridad y fiabilidad.
  • Automatizar procesos y tareas manuales relacionadas con BI.
  • Atender requerimientos del cliente relacionados a los datos recolectados y a las recomendaciones generadas por el equipo.

Modalidad de trabajo para el rol:

  • Presencial: con horario referencial de 08:00 a 17:00 hrs.
  • Almuerzo proporcionado en casino del cliente (adicional a carga Pluxee)
  • Ubicación referencial: Quilicura (considera transporte de acercamiento para la RM)

Requerimientos del cargo

Se requiere profesional con experiencia en proyectos BI y que poseas conocimientos en:

  • Experiencia y manejo de Bases de Datos SQL.
  • Dominio demostrable en lógica básica de programación.
  • Experiencia y manejo de Power BI y similares.
  • Manejo de herramientas de ofimática (MS Office, entre otros).
  • Disponibilidad Inmediata.

Es importante contar con buenos compañeros de trabajo por lo que necesitamos que poseas:

  • Alta capacidad de enfrentar desafío complejos.
  • Buscamos alguien con iniciativa, que tenga capacidad de comunicarse con el equipo, proponer ideas y recibir sugerencias de pares y expertos.
  • Ser un profesional que se involucre en las distintas etapas de un proyecto de BI y tenga conocimiento de su alcance.
  • Disponibilidad Inmediata.

Conditions

  1. Bonificación de Almuerzo con Carga Mensual Tarjeta Pluxee (Ex-Sodexo).
  2. Afiliación Caja de Compensación Los Héroes.
  3. Afiliación Asociación Chilena de Seguridad ACHS.
  4. Bonificación por trabajo híbrido.
  5. Bonificación fechas especiales: fiestas patrias y fiestas de fin de año.
  6. Acceso continuo a Certificaciones y Cursos.
  7. Tarde libre día de cumpleaños.
  8. Acceso a Seguro Complementario de Salud y Dental con cobertura extendida para hijos/as.
  9. Bonificación por nacimiento de hijos/as y matrimonio de colaboradores.
  10. Bonificación por fallecimiento de padres, cónyuges e hijos/as.
  11. Retroalimentación continua.
  12. Convenios con bancos.

Internal talks Gatblac offers space for internal talks or presentations during working hours.
Life insurance Gatblac pays or copays life insurance for employees.
Digital library Access to digital books or subscriptions.
Health coverage Gatblac pays or copays health insurance for employees.
Computer repairs Gatblac covers some computer repair expenses.
Dental insurance Gatblac pays or copays dental insurance for employees.
Computer provided Gatblac provides a computer for your work.
Personal coaching Gatblac offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Shopping discounts Gatblac provides some discounts or deals in certain stores.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Analytics Engineer
  • Artefact LatAm
Python Analytics MySQL SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply to this job opportunity at getonbrd.com.

Tus responsabilidades serán:

  • Recolectar y analizar datos de diversas fuentes para identificar patrones y tendencias. Extraer insights significativos para comprender el rendimiento presente y futuro del negocio.
  • Crear modelos de datos adaptados a distintos proyectos y sectores.
  • Crear y optimizar informes, paneles y cuadros de mando para una presentación efectiva de la información, utilizando herramientas de BI como Tableau, Power BI o QlikView.
  • Identificar oportunidades de mejora de procesos mediante análisis de datos.
  • Mantener y actualizar bases de datos para garantizar su integridad y calidad.
  • Brindar formación y soporte al equipo en el uso de herramientas de Business Intelligence. Colaborar con equipos diversos para crear soluciones integrales. Entender las necesidades del cliente y proponer mejoras y soluciones proactivas.
  • Monitorear modelos de data science y machine learning. Mantener la calidad de datos en flujos de información. Gestionar la seguridad y la escalabilidad de entornos cloud de BI.

Los requisitos del cargo son:

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, o carrera afín
  • 1 a 2 años de experiencia laboral en:
    • Proyectos BI
    • Herramientas de visualización como PowerBI, Tableau, QikView u otros
    • Soluciones de BI en entornos cloud (ejemplo, Azure y Power BI Service)
    • Fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
    • Desarrollo de queries en SQL
    • Desarrollo de modelos de datos para usos analíticos y programación de ETLs
  • Inglés profesional

Algunos deseables no excluyentes:

  • Conocimiento de Python o R
  • Manejo de Big Data en miras de establecer reportería

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2300 Full time
Business Analyst (Analista de Negocio)
  • Coderslab.io
  • Santiago (Hybrid)
Agile Data Analysis Excel SQL

Coderslab.io es una empresa global con más de 3,000 profesionales y oficinas en América Latina y Estados Unidos. Formarás parte de equipos diversos, con el 1% de los mejores talentos técnicos, trabajando en proyectos innovadores y desafiantes que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno que promueve el crecimiento y la profesionalización continua. Este rol se enmarca dentro de un proyecto estratégico, con impacto directo en la entrega de valor al negocio y la optimización de procesos a través de una colaboración estrecha entre negocio y tecnología.

Applications at getonbrd.com.

Principales Responsabilidades

  • Liderar el levantamiento, análisis y documentación de requerimientos de negocio y técnicos.
  • Documentar procesos, flujos y casos de uso en herramientas colaborativas (Confluence, Jira).
  • Validar la factibilidad técnica y regulatoria de soluciones, considerando arquitectura, seguridad, FinOps y cumplimiento (compliance).
  • Elaborar business cases que justifiquen la inversión, cuantificando beneficios (ROI, TCO, ahorro de costos).
  • Gestionar stakeholders internos y externos, asegurando trazabilidad y comunicación de acuerdos y decisiones.
  • Definir KPIs y métricas de éxito, apoyando la medición continua de resultados.
  • Priorizar el portafolio de iniciativas en función de valor para el negocio, riesgo y costo.
  • Participar en pruebas de aceptación de usuario (UAT) para validar el cumplimiento de requerimientos.
  • Facilitar la comunicación entre negocio, arquitectura, seguridad, desarrollo y proveedores.

Requisitos y perfil

Experiencia demostrable como Business Analyst en proyectos tecnológicos, con experiencia en metodologías ágiles (Scrum/Agile) y tradicionales (Waterfall).

Conocimiento del sector banca y finanzas, y de normativas regulatorias (CMF, PCI DSS, continuidad operativa).

Competencia en modelado de procesos con BPMN y UML. Manejo avanzado de herramientas: Jira, Confluence, MS Project/Visio y herramientas de diagramación (draw.io, Lucidchart).

Conocimientos financieros para análisis de TCO, ROI y comprensión de modelos de FinOps. Comprensión de buenas prácticas de arquitectura y seguridad (DevSecOps, NIST, ISO27001).

Habilidades de análisis de datos (Excel Avanzado; SQL deseable; Power BI/Finout para reporting). Inglés técnico intermedio-avanzado para comunicación con proveedores internacionales. Orientación al cliente y excelentes habilidades de comunicación y gestión de stakeholders.

Requisitos deseables

Experiencia previa en entornos regulatorios o de cumplimiento, familiaridad con controles de seguridad de la información y continuidad operativa. Capacidad para trabajar de forma proactiva en entornos dinámicos, con enfoque en entrega de valor y mejora continua. Habilidades de negociación y facilitación de sesiones con equipos multifuncionales y terceros.

Beneficios

Un entorno de trabajo desafiante donde impactarás directamente en proyectos de alto nivel. Oportunidades de crecimiento y desarrollo profesional. Modalidad de trabajo híbrida que promueve el balance entre vida profesional y personal. Posibilidad de trabajar con un equipo global de alto desempeño en proyectos innovadores y estratégicos. ¿Listo para unirte a Coderslab.io y transformar negocios con tecnología de punta?

VIEW JOB APPLY VIA WEB
Gross salary $1900 - 2500 Full time
Data Engineer (Azure / AWS)
  • Devups
Python SQL Virtualization Amazon Web Services

En Devups, ofrecemos un servicio de staff augmentation que permite incorporar desarrolladores y técnicos a tu empresa sin gestionar reclutamiento, contratación ni costes asociados. Nuestro enfoque flexible facilita añadir, intercambiar o reducir recursos de desarrollo de forma rápida, manteniendo la responsabilidad y reduciendo la fricción operativa. Trabajamos para que nuestros clientes escalen sus capacidades tecnológicas con rapidez y sin la carga de una estructura interna permanente.

Como parte de nuestro equipo, el proyecto de Data Engineering se centrará en diseñar soluciones robustas y escalables para flujos de datos en la nube, colaborando con analítica y ciencia de datos para decisiones basadas en datos de calidad. Buscamos un perfil que contribuya a la modernización de pipelines, data lakes y data warehouses, aplicando buenas prácticas de seguridad, gobernanza y costo-eficiencia para entornos Azure y AWS.

Find this vacancy on Get on Board.

Funciones

  • Diseñar y desarrollar pipelines ETL/ELT en entornos cloud (Azure Data Factory, Databricks, Synapse; AWS Glue, Lambda, S3).
  • Integrar, transformar y limpiar grandes volúmenes de datos provenientes de múltiples fuentes para su consumo en analítica y ML.
  • Administrar y optimizar data lakes y data warehouses (Snowflake, Redshift, Synapse, BigQuery según el stack del cliente).
  • Implementar versionado, gobernanza, seguridad y monitoreo continuo de datos; gestionar costos y performance tuning en nube.
  • Colaborar estrechamente con equipos de analítica, ciencia de datos y desarrollo para entregar soluciones centradas en negocio.
  • Participar en prácticas de CI/CD y, si aplica, contenerización con Docker y flujos de orquestación (Airflow, Prefect o similar).

Descripción

Buscamos un Data Engineer con experiencia en el diseño, construcción y optimización de pipelines de datos en la nube ( Azure o AWS ). El objetivo es asegurar el flujo confiable, escalable y seguro de datos desde múltiples fuentes hacia sistemas analíticos o de machine learning, soportando decisiones de negocio basadas en información de calidad. Requisitos clave: +3 años de experiencia en Data Engineering, experiencia en Azure (Data Factory, Databricks, Synapse) o AWS (Glue, Redshift, Lambda, S3), sólidos conocimientos en Python y SQL, modelado de datos, pipelines, APIs y orquestación (Airflow, Prefect o similar), inglés técnico. Se valoran Docker, CI/CD, herramientas de MLOps y certificaciones en Azure o AWS. Ofrecemos un proyecto desafiante con tecnologías cloud y trabajo remoto con horarios flexibles, en un equipo técnico de alto nivel.

Desirable

Experiencia adicional en seguridad de datos, costos y performance tuning en cloud. Conocimientos de seguridad de datos, cumplimiento de normativas y experiencia con herramientas de monitoreo y observabilidad. Capacidad para trabajar de forma autónoma, con buen manejo de prioridades y comunicación clara en entornos multiculturales. Preferible experiencia trabajando en proyectos con impacto directo en negocio y con clientes o equipos remotos.

Beneficios

Como parte de Devups, ofrecemos un entorno laboral flexible donde la innovación, el crecimiento profesional y la adaptabilidad son clave. Al ser un servicio de staff augmentation, promovemos la posibilidad de trabajar desde cualquier ubicación con modalidad de trabajo remoto global, lo que facilita el equilibrio entre vida personal y profesional.
Fomentamos el desarrollo continuo y apoyamos la certificación y formación en tecnologías punteras para mantenernos siempre a la vanguardia.

Fully remote You can work from anywhere in the world.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $900 - 1500 Full time
Data Engineer BI Developer
  • Guinea Mobile SAC (Cuy Móvil)
UX Python PostgreSQL SQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer - BI Developer para conformar el equipo de TEC.

Originally published on getonbrd.com.

Funciones del cargo

  • Modelar capa dimensional (hechos/dimensiones), métricas consistentes y semantic layer en Looker.
  • Construir dashboards de impacto con performance (PDTs/materializaciones, BI Engine, caching).
  • Definir y versionar KPIs con negocio; documentar fuentes y criterios de cálculo.
  • Establecer RLS/CLS y gobernanza de acceso por dominio/rol.
  • Diseñar flujo de publicación (staging → prod) con validaciones de frescura/completitud.
  • Impulsar self-service analytics (plantillas, guías, catálogo) y soporte a stakeholders.

Requerimientos del cargo

Procesamiento de Datos

  • Núcleo común (GCP): batch/stream en Dataflow (Apache Beam), BigQuery Streaming, particionamiento, ventanas y backfills.
  • Infra/DataOps:Pub/Sub, Dataflow o Dataproc (Spark), orquestación con Cloud Composer.
  • BI: preparación de datasets analíticos en BigQuery; agregaciones, métricas y SCD con dbt.

Bases de Datos y Almacenamiento

  • Núcleo común:BigQuery como DWH; Cloud Storage (GCS) para data lake; Cloud SQL (PostgreSQL) cuando aplique.
  • Infra/DataOps: diseño de particiones/clustering, tablas externas en GCS, Bigtable (plus) para time-series.
  • BI: modelado dimensional (estrella/copo), vistas materializadas y semantic layer para Looker.

ETL/ELT

  • Núcleo común:dbt (BigQuery) con modelos, tests y documentación; Cloud Composer para dependencias.
  • Infra/DataOps: pipelines con Dataflow, backfills parametrizados, Great Expectations (o similar).
  • BI: transformación orientada a métricas/negocio con dbt; data contracts básicos.

Programación

  • Núcleo común:Python para datos (pandas/pyarrow), CLIs y testing.
  • Infra/DataOps: libs internas, jobs contenedorizados (Docker), rendimiento y paralelismo en Beam/Spark.
  • BI: SQL productiva, macros dbt, cálculos de métricas y validaciones.

Cloud Computing

  • Núcleo común:IAM, service accounts, costos en BigQuery; Cloud Build para CI.
  • Infra/DataOps:Terraform (IaC), Cloud Monitoring/Logging, lineage/catálogo con Dataplex/Data Catalog.
  • BI: Looker/Looker Studio, gobernanza de datasets y RLS/CLS sobre BigQuery.

Calidad y Seguridad de Datos

  • Núcleo común: validación, profiling y documentación.
  • Infra/DataOps: alertas SLO/SLA, detección de drift/duplicados; DLP, KMS, VPC-SC (plus).
  • BI: definiciones únicas de métricas, control de acceso y data freshness antes de publicar.

Optimización de Consultas y Modelado

  • Núcleo común: tuning de consultas y costos en BigQuery.
  • Infra/DataOps: particionamiento/clustering, Reservations/slots, Storage API.
  • BI: diseño de hechos/dimensiones (grain correcto) y BI Engine (plus).

Perfil del colaborador

  • Criterio de negocio: entiende preguntas y las traduce en métricas/KPIs.
  • Storytelling con datos: claridad visual, UX de dashboard y foco en decisiones.
  • Disciplina semántica: métricas únicas, definiciones versionadas y documentación.
  • Excelencia en SQL/LookML: modelos limpios, reutilizables y testeados.
  • Partner del negocio: gestiona prioridades, feedback y adopción de tableros.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
VIEW JOB APPLY VIA WEB
$$$ Full time
Tableau Developer (Data Visualization)
  • Improving South America
SQL Business Intelligence Big Data BigQuery

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

This job is original from Get on Board.

Funciones del cargo

En Improving South America buscamos un(a) Tableau Developer con experiencia en entornos cloud, orientado(a) a transformar datos en visualizaciones efectivas y accionables. Será responsable de diseñar, desarrollar y mantener dashboards en Tableau conectados a fuentes de datos en la nube, asegurando que la información sea precisa, eficiente y útil para la toma de decisiones.

Funciones principales:

  • Diseñar y desarrollar dashboards y reportes interactivos en Tableau Desktop / Tableau Cloud / Tableau Server.
  • Conectar Tableau a fuentes de datos en plataformas cloud (como Snowflake, BigQuery, Redshift o Azure Data Lake).
  • Traducir requerimientos del negocio en soluciones visuales claras, escalables y de alto rendimiento.
  • Optimizar consultas y estructuras de datos para mejorar la performance de los dashboards.
  • Garantizar la calidad, consistencia y seguridad de los datos visualizados.
  • Colaborar con equipos de datos y negocio para definir KPIs, modelos de información y mejores prácticas de visualización.

Requerimientos del cargo

  • Experiencia: 3 a 5 años en desarrollo de dashboards o soluciones de visualización de datos.
  • Nivel de inglés Intermedio/Avanzado o Avanzado.
  • Dominio avanzado de Tableau (Tableau Desktop, Tableau Server y/o Tableau Cloud).
  • Experiencia trabajando con fuentes de datos en la nube (Snowflake, BigQuery, Redshift, Azure SQL, etc.).
  • SQL intermedio a avanzado: capacidad para escribir, entender y optimizar consultas.
  • Sólidos conocimientos en modelado de datos y estructuras relacionales.
  • Experiencia interpretando requerimientos de negocio y traduciéndolos en visualizaciones efectivas.

Requerimientos deseables

  • Experiencia con Python o R para análisis o automatización.
  • Conocimiento de ETL / ELT o herramientas de integración de datos (dbt, Airflow, Talend, etc.).

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Data Scientist
  • Artefact LatAm
Python Analytics Git SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Apply to this posting directly on Get on Board.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $4850 - 7000 Full time
Senior Database Engineer/architect
  • Krunchbox
Java Python Analytics SQL

Krunchbox is transforming retail analytics with our next-generation platform (Krunchbox 2.0). We are migrating from 800 hardcoded ETLs to a modern, real-time analytics architecture powered by ClickHouse. This greenfield initiative aims to architect the analytical backbone for 100+ enterprise clients while maintaining and optimizing our existing SQL Server infrastructure during the transition. The Senior Database Engineer/Architect will lead the database transformation and operations across both legacy and modern systems, owning the analytical data layer, and delivering a scalable, multi-tenant ClickHouse architecture alongside ongoing SQL Server maintenance.

© Get on Board. All rights reserved.

Key Responsibilities

  • ClickHouse Implementation (New Architecture): take over from initial consulting work to build production ClickHouse system; design and implement multi-tenant architecture with partition isolation; migrate from SQL Server to ClickHouse optimizing for columnar storage; create materialized views for KPI calculations and dashboards; implement data retention policies and TTL strategies; optimize query performance for complex analytical workloads; design backup, recovery, and high-availability strategies.
  • SQL Server Management (Legacy Systems): maintain and optimize existing SQL Server infrastructure during transition; lead ETL modernization from 800 hardcoded processes to automated pipelines; perform database performance tuning and troubleshooting; manage legacy architecture decisions and technical debt; ensure data integrity and availability during migration; optimize existing queries and stored procedures.
  • Leadership & Architecture: provide database leadership across legacy and modern platforms; mentor on SQL and ClickHouse best practices; design migration strategies minimizing downtime and risk; collaborate with development teams on data architecture decisions; create documentation and best practices for a hybrid database environment; lead knowledge transfer and retention efforts during transition.
  • Collaboration & Delivery: work closely with existing team members to ensure continuity and minimize disruption; partner with Event Hubs team for real-time data ingestion; contribute to roadmap and architecture decisions that support scalable analytics for 100M+ rows daily across tenants.

What you’ll bring

Required Qualifications

  • ClickHouse Expertise: 3+ years of production ClickHouse experience; strong background with large-scale migrations from relational to columnar databases; deep understanding of ClickHouse internals (MergeTree engines, partitioning, sharding); expertise in materialized views, projections, and aggregation optimizations; experience with ClickHouse Cloud or managing ClickHouse clusters.
  • SQL Server & Traditional DB Skills: 5+ years of SQL Server production experience in enterprise environments; expert-level SQL programming and query optimization; experience with ETL pipeline design and optimization; database administration including backup, recovery, and performance tuning; experience leading migrations and modernization projects.
  • General Qualifications: proficiency in SQL and ClickHouse-specific extensions; experience with multi-tenant data architectures; strong problem-solving capabilities for complex data challenges; excellent cross-team communication.

Preferred Qualifications

  • Experience with Azure Event Hubs or Kafka integration; knowledge of CDC patterns and real-time data synchronization; retail or e-commerce analytics domain experience; experience with time-series data and IoT workloads; contributions to ClickHouse community or open source; experience with Azure SQL Database and cloud migrations; familiarity with Python/FastAPI for database integration; knowledge of data warehousing and OLAP concepts.

Desirable but not required

Desirable but not required skills:

  • Hands-on experience in modern data platforms and cloud-native architectures; prior leadership role in data platform transformations; experience with multi-region deployments and governance; ability to translate business requirements into scalable data models; passion for scalable performance optimization and data quality.

Benefits

  • Competitive compensation package.
  • Local health coverage (if required)
  • Opportunity to scale and lead a global SaaS platform that solves real-world customer challenges.
  • A direct, impactful role in shaping the future of AI-powered supplier-retailer collaboration.

Fully remote You can work from anywhere in the world.
Health coverage Krunchbox pays or copays health insurance for employees.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Krunchbox gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2300 - 3000 Full time
Data Engineer
  • Coderslab.io
Python SQL Artificial Intelligence Machine Learning

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DATA ENGINEERpara sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Find this vacancy on Get on Board.

Funciones del cargo

  • Desarrollo de ingestas de Datos a GCP
  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Requerimientos del cargo

- Dominio del lenguaje de programación Python y Lenguaje de Consulta Estructurado (SQL).
- Experiencia trabajando con plataformas de datos en la nube como Snowflake o tecnologías similares.
- Conocimiento de los pipelines de aprendizaje automático y capacidad para apoyar el desarrollo de modelos utilizando herramientas como Amazon SageMaker.
- Familiaridad con procesos de integración de datos como Extraer-Transformar-Cargar (ETL) o Extraer-Cargar-Transformar (ELT).

Condiciones

Nivel de Ingles : Avanzado

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos para Cloud Azure
  • Coderslab.io
Python SQL NoSQL Azure

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Ingeniero de Datos para Cloud Azure para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply without intermediaries through Get on Board.

Funciones del cargo

i. Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.

ii. Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.

iii. Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.

iv. Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.

v. Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).

vi. Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.

vii. Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.

viii. Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.

ix. Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

i. Preferente Microsoft Certified: Azure Data Engineer Associate

ii. Preferente Databricks Certified: Data Engineer Associate

iii. Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.

iv. Conocimiento avanzado en bases de datos NoSql.

v. Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.

vi. Conocimiento en procesamiento de datos batch, streaming, API.

vii. Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.

viii. Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.

ix. Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.

x. Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

PROCESO

El proceso de selección consta de una única prueba técnica en vivo con el equipo. No habrá entrevistas previas.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Engineer (Bilingüe)
  • Adecco
  • Santiago (Hybrid)
Java Python Analytics SQL

Somos Adecco Chile, la filial local del líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en el país y una sólida trayectoria apoyando a empresas en su gestión de talento. Adecco Chile está comprometida con ofrecer soluciones integrales y personalizadas, destacándose en áreas como Selección de Personal, Staffing, Payroll Services y Training & Consulting. Nuestro equipo trabaja con altos estándares de calidad, respaldados por la certificación ISO 9001:2015, y con presencia en las principales ciudades del país. Actualmente, buscamos incorporar un Data Engineer para un proyecto estratégico de un cliente que involucra la construcción y optimización de pipelines de datos en cloud, con especial foco en tecnologías Google Cloud Platform y arquitecturas modernas de procesamiento y orquestación.

Find this vacancy on Get on Board.

Responsabilidades y Funciones Principales

En esta posición, el Data Engineer tendrá como objetivo principal diseñar, implementar y mantener pipelines de datos robustos y escalables para soportar las necesidades de inteligencia de negocio y análisis avanzado. Trabajará estrechamente con equipos de Data Science, BI y desarrollo para asegurar que los flujos de datos estén optimizados y disponibles para los diferentes consumidores.
  • Diseñar y desarrollar pipelines de ingesta, procesamiento y distribución de datos en la nube, utilizando tecnologías de Google Cloud Platform y frameworks open source.
  • Gestionar entornos de desarrollo para asegurar la reproducibilidad y escalabilidad con herramientas como venv, pip y poetry.
  • Implementar orquestadores de workflows como Cloud Composer (Airflow) y plataformas de AI pipelines para automatizar procesos de data engineering.
  • Optimizar el rendimiento de los clusters y pipelines de datos, tanto batch como streaming, aplicando conocimientos avanzados de Apache Spark, Apache Beam o Apache Flink.
  • Aplicar técnicas de feature engineering y gestión avanzada de datos para maximizar el valor analítico.
  • Administrar almacenamiento y bases de datos en GCP, como CloudSQL, BigQuery, Cloud Bigtable, Cloud Spanner y bases de datos vectoriales.
  • Coordinar la integración de microservicios y mensajería en tiempo real mediante Pub/Sub, Kafka y Kubernetes Engine.
  • Asegurar que los procesos CI/CD para pipelines de datos estén correctamente implementados con herramientas como GitHub, Jenkins, GitLab y Terraform.
  • Participar en el diseño y escalabilidad de arquitecturas distribuidas, garantizando la resiliencia y optimización del uso de recursos cloud.

Requisitos y Competencias

Buscamos profesionales con conocimientos sólidos y experiencia comprobable en el área de ingeniería de datos, con capacidad para trabajar en entornos dinámicos y multidisciplinarios. Es fundamental tener un dominio avanzado de la programación, experiencia práctica en la nube, y un amplio entendimiento de las arquitecturas modernas de datos.
  • Dominio del inglés, tanto escrito como verbal, para comunicación efectiva dentro de equipos y documentación técnica.
  • Experiencia avanzada en lenguajes de programación Python y Java, aplicados en el desarrollo y mantenimiento de pipelines de datos.
  • Experiencia práctica en entornos cloud, preferentemente Google Cloud Platform (GCP), utilizando servicios como CloudSQL, BigQuery, Cloud Storage, Pub/Sub, Cloud Functions y Kubernetes Engine.
  • Conocimiento profundo en manejo de contenedores Docker y gestión de entornos virtuales con herramientas como venv, pip y poetry.
  • Amplia experiencia en orquestación de workflows con Airflow, Vertex AI pipelines u otros orquestadores equivalentes.
  • Competencia en técnicas de ingeniería de datos, feature engineering, y frameworks de procesamiento distribuido en Batch y Streaming como Apache Spark, Apache Beam o Apache Flink.
  • Dominio avanzado de SQL y conceptos de streaming (windowing, triggers, late arrival) para estructurar y manipular datos en tiempo real.
  • Experiencia en integración continua y despliegue continuo (CI/CD) con herramientas como GitHub, Jenkins, GitLab, y conocimientos en infraestructura como código usando Terraform.
  • Capacidad para diseñar arquitecturas de datos distribuidas y optimizadas, con comprensión de criterios para selección de opciones de almacenamiento y cómputo.
  • Habilidades analíticas y mentalidad de negocio para interpretar el uso de los datos en procesos de Business Intelligence y Analítica avanzada.

Competencias Deseables

  • Experiencia práctica en sistemas distribuidos, escalables y resilientes.
  • Experiencia laboral en diseño y arquitectura de soluciones de datos end-to-end que incluyan transacciones y múltiples fuentes basadas en APIs.
  • Buen entendimiento de estrategias para la optimización de rendimiento en clusters y pipelines de datos.
  • Exposición a tecnologías GCP para pipelines de datos de extremo a extremo.
  • Experiencia con Kubernetes para orquestación y administración de contenedores a gran escala.
  • Experiencia con bases de datos vectoriales, en particular Qdrant, para casos avanzados de búsqueda y análisis.

¿Qué ofrecemos?

- Un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional.
- Oportunidad de formar parte de un equipo altamente cualificado y profesional en nuestro cliente
- Formación continua para mantenerte actualizado en las tecnologías más modernas.
- Oportunidades claras de crecimiento dentro de la empresa y el sector tecnológico.
- Contrato inicialmente a plazo fijo, con posibilidad de pasar a indefinido con el cliente final.
- Modalidad híbrida de trabajo: 1 días presencial en oficina y 4 días remoto.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

Find this job on getonbrd.com.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

This job is original from Get on Board.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL Machine Learning A/B Testing

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Find this vacancy on Get on Board.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
VIEW JOB APPLY VIA WEB
$$$ Full time
Product Owner
  • Cumplo
  • Santiago (In-office)
Agile SQL Scrum Artificial Intelligence
Cumplo se dedica a conectar a pequeñas y medianas empresas con inversionistas e instituciones dispuestas a financiar sus proyectos y sueños. El candidato seleccionado trabajará en la gestión de productos orientados a fortalecer la propuesta de valor de Cumplo Pay y Cumplo Cash, asegurando que las necesidades del negocio se traduzcan en requerimientos tecnológicos accionables y en soluciones que impulsen la automatización y la eficiencia operativa. El rol contribuirá a unir las áreas de producto y tecnología, manteniendo un backlog priorizado y alineado con los objetivos estratégicos de la empresa, y participará en la evaluación de casos de negocio para nuevos desarrollos, estimando ahorros y mejoras en automatización y carga operativa.

Apply at getonbrd.com without intermediaries.

Funciones

  • Gestionar y facilitar las ceremonias diarias (dailies) con el equipo de núcleo para monitorear el avance de los desarrollos.
  • Colaborar estrechamente con el Tech Lead para orquestar soluciones técnicas ante requerimientos del negocio.
  • Administrar y ordenar el flujo de trabajo en Jira, garantizando una metodología de Sprint eficiente.
  • Actuar como contraparte inicial para asegurar que cada desarrollo cuente con los checks necesarios (p. ej., validación con Compliance) antes de iniciar la construcción.
  • Documentar procesos y conocimientos para asegurar la continuidad operativa y evitar silos de información.
  • Evaluar y presentar casos de negocio para nuevos desarrollos, midiendo ahorros proyectados, niveles de automatización y liberación de carga operativa (Back Office/Logística).
  • Gestionar la priorización del backlog y asegurar su alineación con los objetivos de negocio de Cumplo Pay o Cumplo Cash.
  • Optimizar la eficiencia operativa del equipo de desarrollo mediante metodologías ágiles y uso riguroso de herramientas de gestión.

Descripción

  • 3 a 5 años de experiencia en roles similares, preferentemente en startups consolidadas y en Fintech o servicios financieros.
  • Experiencia en automatización de procesos para mejorar eficiencia operativa y reducir carga manual.
  • Capacidad para trabajar en entornos dinámicos y flexibles.
  • Formación en Ingeniería Civil o carreras afines.
  • Dominio avanzado de metodologías ágiles (Scrum/Agile).
  • Conocimiento de herramientas de IA para generación, revisión y ejecución de código (IDE y agentes).
  • Capacidad de comunicar de forma técnica con desarrolladores y manejo intermedio-avanzado de SQL.
  • Experiencia en herramientas de gestión de proyectos (Jira).

Requisitos deseables

  • Se valorarán Experiencia previa en integración de sistemas, conocimiento de cumplimiento normativo (Compliance) y habilidades demostrables para gestionar stakeholders.
  • Capacidad de tomar decisiones fundamentadas, gestionar prioridades en un entorno de alta velocidad y contribuir a la cultura de entrega continua y mejora de procesos.
  • Disponibilidad para colaborar con equipos multifuncionales y apoyo en cambios organizacionales.

Beneficios

  • Personal Days: Día libre por cumpleaños y día libre por mudanza.
  • 3 días extra de vacaciones
  • Seguro Complementario
  • Beneficios Caja los Andes
  • Entre otros

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Cumplo pays or copays health insurance for employees.
Computer provided Cumplo provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Cumplo gives you paid vacations over the legal minimum.
Beverages and snacks Cumplo offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Product Owner
  • NeuralWorks
  • Santiago (Hybrid)
SQL Product Owner APIs API Integration

NeuralWorks es una compañía de alto crecimiento fundada hace 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply directly on Get on Board.

Descripción del trabajo

En NeuralWorks seguimos creciendo y queremos sumar a nuestro equipo a una persona que lidere la creación y evolución de un ecosistema digital de clientes.

Este rol será clave para construir una experiencia que permita a distintos usuarios internos acceder de forma simple, confiable y consistente a la historia completa del cliente, habilitando mejores decisiones de negocio y un impacto real en la organización.

Descripción del trabajo

  • Definir y liderar la visión, estrategia y roadmap.
  • Diseñar y evolucionar una vista 360° del cliente, entendida como una experiencia única e integrada.
  • Trabajar estrechamente con equipos de UX/UI, frontend, backend y data, asegurando coherencia entre experiencia, tecnología y datos.
  • Representar el producto en mesas ejecutivas, presentando avances, roadmap, riesgos y oportunidades de impacto.
  • Traducir necesidades estratégicas del negocio en decisiones claras de producto, priorizadas por valor y experiencia de usuario.
  • Definir y monitorear métricas de éxito como adopción, uso, satisfacción y time-to-insight.
  • Impulsar la plataforma como la fuente única de entendimiento del cliente dentro de la organización.

Calificaciones clave

  • 3 a 5 años de experiencia liderando productos digitales, idealmente plataformas o productos de cara al usuario.
  • Experiencia presentando y defendiendo visión, roadmap y decisiones de producto.
  • Experiencia trabajando con datos de clientes y múltiples fuentes de información.
  • Sólida capacidad de gestión de stakeholders de distintos niveles jerárquicos.
  • Buen entendimiento de arquitecturas de productos digitales (frontend, backend, APIs).
  • Experiencia funcional en integración y consumo de datos vía APIs.
  • Conocimientos básicos/intermedios de SQL.

Nice to have

  • Experiencia en Customer 360, CRM, CDP o plataformas internas de clientes.
  • Haber diseñado o evolucionado buscadores internos o herramientas de exploración de información.
  • Conocimientos de UX research y diseño centrado en el usuario.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Outdoors The premises have outdoor spaces such as parks or terraces.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Speaker travel If you speak at a conference, NeuralWorks will cover your expenses.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage NeuralWorks pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend NeuralWorks covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Ingeniero de Proyectos TI
  • GeoVictoria
  • Lima (Hybrid)
Python Analytics SQL Back-end

¡Lidera el camino como Jefe de Proyectos TI en GeoVictoria! Serás quien garantice que nuestras soluciones tecnológicas se transformen en experiencias exitosas para nuestros clientes, desde el primer requerimiento hasta la entrega final.

El equipo es internacional y tendrás la oportunidad de trabajar con personas desde el área de Desarrollo en distintos países.

Applications: getonbrd.com.

Responsabilidades

  • Liderar proyectos desde el levantamiento de requerimientos hasta la entrega formal al cliente, asegurando altos estándares de calidad en cada etapa.
  • Analizar los requerimientos de los clientes, proponer soluciones y gestionar cotizaciones para nuevas solicitudes o mejoras dentro del proyecto.
  • Coordinar y hacer seguimiento a las distintas áreas involucradas en el desarrollo del proyecto, identificando y mitigando posibles riesgos.
  • Establecer acuerdos formales con los clientes, definiendo funcionalidades en colaboración con el equipo de desarrollo y manteniendo una comunicación efectiva.
  • Elaborar y mantener actualizada la planificación del proyecto, estableciendo lineamientos y un marco de trabajo claro hacia el cliente.

Requerimientos del cargo

  • Título en Ingeniería Civil en Computación o Informática, con interés en gestión de clientes. También valoramos Ingeniería Industrial o Comercial con experiencia en proyectos TI.
  • Conocimientos en herramientas TI en general, SQL, Python y programación básica.
  • Capacidad para trabajar de manera autónoma y en equipo.
  • Habilidades de liderazgo y capacidad analítica.
  • Disponibilidad para trabajar de manera híbrida en Providencia, Región Metropolitana.

Valorables

  • Experiencia previa liderando proyectos TI.
  • Conocimiento de metodologías ágiles.
  • Buen manejo de documentación de requerimientos y herramientas colaborativas"

¡Conoce nuestros Beneficios!

- Beneficios acorde a ley al 100%
- Salario acorde al mercado
- Trabajo híbrido
- Oficina Pet Friendly
- Oportunidades de línea de crecimiento
- Trabajo con equipo multidisciplinario en una empresa Trasnacional

VIEW JOB APPLY VIA WEB
$$$ Full time
Consultor SAP Bo Semi Senior
  • BC Tecnología
  • Buenos Aires (Hybrid)
Data Analysis SQL Business Intelligence English
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Nuestro objetivo es formar equipos ágiles en áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio, aportando soluciones de BI y analítica para clientes de alto perfil. Participarás en proyectos desafiantes de Business Intelligence, trabajando en colaboración con clientes y equipos multidisciplinarios para entregar reportes y soluciones analíticas eficientes y de alta calidad. La modalidad híbrida (presencial + remoto) facilita el equilibrio entre trabajo colaborativo y flexibilidad, con foco en el desarrollo técnico continuo y la entrega de valor al negocio.

Applications at getonbrd.com.

  • Participar en el relevamiento y análisis de requerimientos de reporting para clientes específicos.
  • Desarrollar y mantener reportes en SAP BusinessObjects (WebI) y gestionar universos con Information Design Tool (IDT).
  • Crear y modificar universos, diseñar y optimizar reportes, paneles y dashboards para una visión integral de datos.
  • Desarrollar reportes con Web Intelligence (WebI) y Crystal Reports, asegurando precisión y rendimiento.
  • Optimizar consultas y estructuras de datos para mejorar la performance de BI.
  • Brindar soporte a usuarios finales, resolver incidencias y gestionar cambios en entregas.
  • Colaborar con equipos técnicos (ABAP, BW, HANA) y funcionales para alinear soluciones con requerimientos de negocio.
  • Documentar desarrollos, procesos y soluciones implementadas siguiendo estándares y buenas prácticas de BI.
  • Aportar ideas para la mejora continua de procesos, modelado de datos y calidad de datos.
Buscamos un Consultor SAP BO Semi Senior con 2 a 4 años de experiencia para integrarse a proyectos de BI. El/la candidato/a ideal debe dominar SAP BusinessObjects (WebI, Universos, IDT) y SQL, con experiencia en desarrollo de reportes y análisis de datos. Se valorará conocer SAP HANA y/o SAP BW, Crystal Reports y modelado de datos. Se requiere disponibilidad para modalidad híbrida en Buenos Aires y un nivel de inglés intermedio. El rol implica trabajar en proyectos desafiantes, colaborar con equipos multidisciplinarios y aplicar buenas prácticas de BI y estándares del proyecto.
Conocimientos en SAP HANA y/o SAP BW. Experiencia con Crystal Reports. Habilidades de modelado de datos. Inglés intermedio. Capacidad de aprendizaje rápido, orientación a resultados y buenas habilidades de comunicación para interactuar con clientes y equipos.
En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Buenos Aires , permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB