$$$ Full time
Data Engineer
  • Leniolabs_
Azure Cloud Computing English Data Engineer

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente, estamos en la búsqueda de un Data Engineer SSR/SR que se quieran unir a Leniolabs, para trabajar de la mano de uno de nuestros importantes clientes relacionado con el almacenamiento de datos. El objetivo principal del cargo es garantizar la estabilidad, escalabilidad y seguridad de la infraestructura tecnológica, apoyando el manejo eficiente de grandes volúmenes de datos mediante soluciones modernas y automatizadas.

La persona que se sume trabajará directamente en del desarrollo de un producto externo de la empresa, manteniendo relación directa con el cliente.

  • Se trabajará en el departamento de desarrollo de tecnología de la empresa.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).
  • Contamos internamente con personas capacitadas para realizar QA, Líder de proyecto, etc, por lo cual tendrá la responsabilidad de adaptarse a cada equipo.

Requerimientos del cargo

  • Más de 5 años de experiencia como Data Engineer.
  • Conocimiento avanzado y experiencia obligatoria con Microsoft Fabric:
    • Fabric Pipelines.
  • Experiencia con la suite de Azure AI, incluyendo:
    • Azure AI Search.
    • Promptflow.
    • Copilot Studio.
  • Habilidades de integración con herramientas avanzadas de inteligencia artificial.
  • Optimizar y gestionar flujos de datos escalables.
  • Integrar funcionalidades avanzadas de IA utilizando herramientas de la suite Azure AI.
  • Desarrollar sistemas de búsqueda inteligente y exploración de datos con Azure AI Search
  • Nivel de inglés: Intermedio/avanzado en adelante (B2+).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • Leniolabs_
Python Virtualization Amazon Web Services Keras

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente, estamos en la búsqueda de un Data Science SSR/SR que se quieran unir a Leniolabs, para trabajar de la mano de uno de nuestros importantes clientes relacionado con el almacenamiento de datos. El objetivo principal del cargo es garantizar la estabilidad, escalabilidad y seguridad de la infraestructura tecnológica, apoyando el manejo eficiente de grandes volúmenes de datos mediante soluciones modernas y automatizadas.

La persona que se sume trabajará directamente en del desarrollo de un producto externo de la empresa, manteniendo relación directa con el cliente.

  • Se trabajará en el departamento de desarrollo de tecnología de la empresa.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).
  • Contamos internamente con personas capacitadas para realizar QA, Líder de proyecto, etc, por lo cual tendrá la responsabilidad de adaptarse a cada equipo.

Requerimientos del cargo

  • Nivel de inglés avanzado - B2/C1 - (indispensable).
  • Contra con 5 años de experiencia en proyectos de inteligencia artificial y aprendizaje automático.
  • Experiencia en la implementación y optimización de soluciones de IA en entornos empresariales.
  • Práctica con modelos de lenguaje grandes (LLM), que incluye capacitación, ajuste e implementación.
  • Conocimiento profundo de AWS Bedrock, incluida la integración de modelos fundamentales y el aprovechamiento de sus servicios de IA para aplicaciones escalables.
  • Competencia en la creación y utilización de incrustaciones para tareas como búsqueda semántica, sistemas de recomendación y procesamiento del lenguaje natural.
  • Sólida comprensión de los LLM y sus aplicaciones en escenarios del mundo real.
  • Habilidades avanzadas de programación en Python y familiaridad con bibliotecas como TensorFlow, PyTorch y Hugging Face Transformers.
  • Conocimiento de herramientas para el manejo de incrustaciones, incluidas FAISS, Pinecone o bases de datos vectoriales similares.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Planificador de Abastecimiento
  • Agrosuper
  • Rancagua (In-office)
Excel Power BI Data Visualization

En Agrosuper, nuestra misión es llevar alimentos de la más alta calidad a la mesa de las familias de Chile y el mundo. Estamos en constante búsqueda de nuevas ideas que impulsen nuestro crecimiento y desarrollo, y deseamos que te unas a nosotros en este viaje. Te ofrecemos la oportunidad de ser parte de un equipo comprometido y apasionado que colabora para mejorar nuestra cadena de suministro, optimizando procesos para satisfacer la demanda de nuestros productos.

Responsabilidades del Cargo

Como Responsable de la planificación de abastecimiento en Agrosuper, serás clave en la elaboración de planes de suministro a corto, mediano y largo plazo que maximicen el servicio y la rentabilidad de la compañía. Tus principales responsabilidades incluirán:

  • Desarrollar planes de abastecimiento a 12-18 meses que sirvan como primer input en la generación del presupuesto de suministro.
  • Analizar capacidades de la cadena y proponer mejoras en el proceso de S&OP.
  • Generar reportes sobre la desviación del plan de suministro, identificando causas raíz para mitigar riesgos.
  • Gestionar la demanda restricta considerando la factibilidad y rentabilidad del negocio.
  • Colaborar con equipos de Producción, Distribución y Compras para asegurar el cumplimiento del plan de suministro.
  • Proponer acciones correctivas en caso de desvíos en el Rolling S&OP.
  • Factibilizar escenarios de respuesta ante incumplimientos, siendo un soporte clave en decisiones de contingencia.

Descripción del Ideal Candidato

Buscamos un profesional en Ingeniería Civil Industrial o equivalente con un mínimo de 3 a 5 años de experiencia en planificación de abastecimiento y gestión de la cadena de suministro. El candidato ideal debe tener:

  • Excelentes habilidades analíticas, con manejo avanzado de Excel y preferentemente Power BI.
  • Capacidad de trabajo bajo presión y resiliencia ante cambios en el entorno de trabajo.
  • Competencias interpersonales que incluyen solución de problemas, comunicación efectiva, y el desarrollo de otros.
  • Una mentalidad proactiva y enfoque en el autodesarrollo, con disposición a proponer mejoras y trabajar en un equipo en construcción.

Competencias Deseables

Sería ideal que el candidato tenga experiencia previa en entornos de producción y logística. También se valorará el conocimiento en procesos de S&OP y una fuerte capacidad de colaboración y liderazgo, aunque no son requisitos excluyentes. La capacidad de hablar otro idioma es un plus, pero no es necesaria para el desempeño del cargo.

Beneficios de Trabajar en Agrosuper

En Agrosuper, no solo ofrecemos un entorno laboral que valora tus ideas y fomenta el bienestar personal, sino que también garantizamos un horario de lunes a viernes de 08:30 a 18:00, permitiendo así un equilibrio entre la vida laboral y personal. Además, formarás parte de una familia que cree en el desarrollo profesional y la mejora continua. ¡Ven a ser parte de nuestro equipo! 🌟

Meals provided Agrosuper provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Commuting buses Agrosuper provides free commuting buses from and to the offices.
Health coverage Agrosuper pays or copays health insurance for employees.
Dental insurance Agrosuper pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Agrosuper provides a computer for your work.
Shopping discounts Agrosuper provides some discounts or deals in certain stores.
APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python Virtualization Amazon Web Services
En BC Tecnología, somos una consultora de TI dedicada a ofrecer soluciones innovadoras y personalizadas en diversas áreas de tecnología. Nuestro equipo de expertos está comprometido a crear equipos de trabajo ágiles y eficientes, especialmente en el contexto de proyectos de infraestructura tecnológica y desarrollo de software. Atendemos a clientes en sectores como servicios financieros, seguros, retail y gobierno, proporcionando consultoría, desarrollo de proyectos y outsourcing de profesionales altamente capacitados.
Estamos enfocados en entregar soluciones que se alineen con las necesidades precisas de nuestros clientes, y buscamos sumar talento que pueda contribuir a nuestro crecimiento y excelencia en servicios.

Responsabilidades del Ingeniero de Datos AWS

Como Ingeniero de Datos AWS, tu principal responsabilidad será proporcionar datos accesibles y útiles para nuestros usuarios finales, especializándote en la infraestructura Big Data. Algunas de tus funciones específicas incluirán:
  • Desarrollar y optimizar procesos de ETL en entornos de nube.
  • Trabajar con tecnologías y servicios de AWS como EC2, S3, Glue, Lambda, Athena y Redshift.
  • Realizar modelamiento y exploración de datos.
  • Utilizar lenguajes de programación como Python y SQL para la gestión de datos.
Tu papel será crucial en garantizar que los datos se presenten de manera adecuada para apoyar el desarrollo de nuevas aplicaciones Big Data, contribuyendo a la toma de decisiones estratégicas dentro de la empresa.

Perfil del Candidato

Buscamos un candidato con al menos 3 años de experiencia en ingeniería de datos, especialmente con un enfoque en Big Data. Las habilidades y conocimientos deseados incluyen:
  • Amplia experiencia en la extracción y manipulación de datos, preferiblemente en la nube.
  • Dominio de herramientas y tecnologías relacionadas con el procesamiento de datos a gran escala.
  • Conocimientos en Python, SQL y sistemas operativos Linux.
  • Fuerza en la resolución de problemas y habilidades analíticas.
Además, valoramos la capacidad de trabajar en un entorno colaborativo, adaptándose a metodologías ágiles y contribuyendo al desarrollo del equipo.

Habilidades Adicionales Valiosas

Si bien no son estrictamente requeridas, las siguientes competencias serán altamente valoradas:
  • Experiencia en la implementación de soluciones de análisis de datos en tiempo real.
  • Conocimientos en inteligencia artificial y machine learning aplicados a Big Data.
  • Experiencia en trabajar con herramientas de visualización de datos.
Un enfoque proactivo y la habilidad para aprender rápidamente nuevas tecnologías también serán considerados como aspectos positivos para potencializar tu perfil.

Beneficios de Trabajar en BC Tecnología

Al formar parte de BC Tecnología, disfrutarás de un conjunto de beneficios que incluyen:
  • Seguro complementario para colaboradores.
  • Amipass de $4,500 por día trabajado.
  • Actividades y convenios que fomentan el bienestar del equipo.
  • Bonos por rendimiento y posibilidad de extender tu contrato tras los primeros 12 meses.
  • Horario flexible que promueve un equilibrio óptimo entre trabajo y vida personal.
Te ofrecemos un ambiente colaborativo que apoya el crecimiento profesional y fomenta el desarrollo de cada uno de nuestros colaboradores. ¡Esperamos contar contigo en nuestro equipo en BC Tecnología!

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python Virtualization ETL
BC Tecnología es una destacada consultora de TI con un equipo experto en diversas áreas de tecnología. Nos especializamos en servicios IT, administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales de alta calidad. Desde hace más de 6 años, hemos trabajado con clientes de servicios financieros, seguros, retail y gobierno, diseñando soluciones personalizadas que se adaptan a sus necesidades específicas.
Actualmente, nuestro departamento de desarrollo se encuentra en búsqueda de un Data Engineer especializado en AWS para potenciar nuestros servicios y mejorar la eficiencia de los procesos de datos a través de la creación de infraestructuras robustas y escalables.

Responsabilidades y objetivos del rol.

Como Data Engineer AWS, tu papel será clave en el desarrollo y la orquestación de pipelines ETL. Tus principales responsabilidades incluirán:
  • Diseñar y implementar soluciones basadas en AWS para la manipulación y el procesamiento de datos.
  • Utilizar herramientas como AWS Glue, Lambda, S3 y Step Functions para asegurar flujos de trabajo eficientes.
  • Desarrollar scripts en Python y consultas SQL para automatizar procesos y mejorar la calidad de los datos.
  • Colaborar con equipos multifuncionales para alinear estrategias y objetivos en proyectos de datos.
  • Realizar pruebas de rendimiento y optimización de procesos.

Requisitos y habilidades necesarias.

Buscamos a un profesional con al menos 3 años de experiencia en el campo de la ingeniería de datos, específicamente con:
  • Profundo conocimiento en Python, SQL y AWS, incluyendo Glue (PySpark), Lambda, S3 y Step Functions.
  • Experiencia en desarrollo и orquestación de pipelines ETL.
  • Habilidades analíticas sólidas y capacidad para resolver problemas de manera proactiva.
  • Excelentes habilidades de comunicación y trabajo en equipo.
Valoramos no solo la experiencia técnica, sino también una actitud colaborativa y un enfoque orientado al cliente, que son fundamentales para el éxito en nuestro entorno ágil y centrado en resultados.

Habilidades adicionales deseables.

Además de los requisitos mencionados, sería un plus contar con:
  • Experiencia en Spark para el procesamiento de datos.
  • Conocimientos en otras plataformas de cloud computing.
  • Certificaciones en AWS.
  • Experiencia en la implementación de soluciones de datos en entornos de producción.
Estas habilidades nos ayudarán a seguir brindando soluciones innovadoras y de alta calidad a nuestros clientes.

Beneficios de trabajar en BC Tecnología.

Al formar parte de BC Tecnología, podrás beneficiarte de:
  • Seguro complementario para colaboradores.
  • Amipass de $4,500 por día trabajado.
  • Actividades y convenios que promueven el bienestar del equipo.
  • Bonos por rendimiento y un contrato inicial de 12 meses con opción a extensión.
  • Horario flexible de lunes a viernes que promueve un equilibrio óptimo entre trabajo y vida personal.
Te ofrecemos un ambiente colaborativo que apoya el crecimiento profesional y fomenta el desarrollo de cada uno de nuestros colaboradores. ¡Te esperamos para que te unas a nuestro equipo en BC Tecnología!

APPLY VIA WEB
$$$ Full time
Digital Business Analyst
  • Prodig.io
UML Scrum Jira Agile
Prodig.io es una empresa nativa digital que trabaja con organizaciones para desarrollar y acelerar capacidades tecnológicas. Nos comprometemos con las metas y sueños de nuestros clientes, ofreciendo soluciones efectivas que los transforman en negocios digitales. Nuestro equipo está compuesto por personas altamente capacitadas y talentosas que colaboran estrechamente con los clientes para asegurar resultados exitosos en esta nueva era cognitiva.

Responsabilidades clave del rol

  • Relevar y traducir requerimientos funcionales: Moderar sesiones de discovery con el cliente para acotar la complejidad, definir alcance y establecer criterios de aceptación claros y transversales.
  • Gestión del backlog: Refinar, priorizar y mantener el backlog actualizado, asegurando un horizonte claro para al menos los próximos dos sprints.
  • Control del scope: Identificar, registrar y comunicar cualquier solicitud de cambio, evaluando impacto en alcance, tiempo y costos para su priorización y negociación con el cliente.
  • Definiciones y aceptación: Documentar las especificaciones funcionales y no funcionales con criterios de prueba acordados y gestionar la validación con el cliente antes del desarrollo.
  • Gestión del ciclo de vida de los features: Supervisar cada etapa de los features (discovery, ready, done, accepted) y calcular el progreso del proyecto basado en la aceptación de los mismos.

Requisitos y habilidades deseadas

  • Análisis crítico y conceptualización: Capacidad para estructurar requerimientos complejos en user stories claras y accionables.
  • Comunicación efectiva: Habilidad para interactuar con stakeholders técnicos y no técnicos, facilitando acuerdos y expectativas.
  • Gestión de prioridades: Capacidad para balancear objetivos del cliente con las limitaciones técnicas y del equipo.
  • Adaptabilidad: Facilidad para manejar cambios en alcance o prioridades sin perder el control del proyecto.
  • Orientación a resultados: Foco en la entrega de valor al cliente respetando plazos, costos y calidad.
  • Experiencia previa como Business Analyst técnico (mínimo 5 años) en proyectos de desarrollo de software, idealmente en modalidad precio fijo.
  • Conocimiento en frameworks ágiles: Experiencia trabajando con Scrum y metodologías relacionadas.
  • Gestión de stakeholders: Experiencia directa interactuando con Product Managers o roles similares en el cliente.
  • Herramientas y documentación: Dominio de herramientas de gestión de proyectos (JIRA, Confluence) y documentación funcional (diagramas UML, casos de uso).
  • Conocimiento técnico: Familiaridad con tecnologías de Cloud y Data, suficiente para entender limitaciones técnicas y comunicar con el equipo de desarrollo.

Habilidades adicionales valoradas

Conocimientos en metodologías de estimación y planificación de proyectos, así como en técnicas de mejora continua. Certificaciones en gestión de proyectos y/o agilidad, y experiencia en entornos dinámicos con múltiples proyectos simultáneos.

Beneficios de trabajar con nosotros

En Prodig.io valoramos el desarrollo profesional de nuestro equipo. Ofrecemos cursos y certificaciones según el plan de carrera, y premiamos el cumplimiento de un año en la empresa. Además, gozarás de un día libre en tu cumpleaños, y tres “Días de descanso” al año, previa coordinación con tu líder. Ven a formar parte de nuestro viaje hacia el éxito sostenible en la era cognitiva!

APPLY VIA WEB
$$$ Full time
Data Project Manager
  • 2BRAINS
SQL Analytics Python ETL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Project Manager de 2Brains debe

  • Tener experiencia en gestión de datos: dominio de arquitectura de datos, modelado de datos y el control de calidad de los datos.
  • Gestionar proyectos: las sólidas habilidades de gestión de proyectos para planificar, ejecutar y monitorear proyectos de datos.
  • Tener familiaridad con sistemas de bases de datos, procesos ETL (Extracción, Transformación, Carga) y herramientas de análisis de datos.
  • Lograr comunicación eficaz para establecer vínculos entre los equipos técnicos y no técnicos.
  • Conocimiento sobre gobierno de datos.
  • Liderar equipos multifuncionales e impulsar la colaboración.

El Data Project Manager es el responsable de planificar, coordinar y supervisar proyectos relacionados con la gestión y análisis de datos en una organización. Su trabajo combina habilidades técnicas, gestión de proyectos y conocimiento estratégico para garantizar que los proyectos de datos cumplan con los objetivos establecidos.

Qué conocimientos buscamos en/la Data Project Manager

  • Bases de datos: MS SQL Server, Big Query, DataBricks.
  • Snowflake o Redshift (deseable)
  • Herramientas de ETL
  • Herramientas de BI y visualización: Power BI y/o Looker
  • Herramientas de analítica: SPSS, Python, SAS Viya.

Que competencias buscamos en/la Data Project Manager

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Día libre para tu cumpleaños.
  • Días de Descanso a convenir.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Planificador de Demanda
  • Agrosuper
  • Rancagua (Hybrid)
Excel Planning Power BI Sales

Agrosuper es una empresa que une a más de 13.000 personas con el sueño de llevar alimentos de la más alta calidad a la mesa de las familias en Chile y el mundo. En nuestro equipo, cada miembro es importante y estamos dedicados a encontrar a los mejores para impulsar nuevas ideas y facilitar tu crecimiento profesional.

Estamos buscando un Planificador de Demanda que jugará un papel fundamental en la elaboración de pronósticos y presupuestos, apoyando a nuestra área comercial a alcanzar sus objetivos. Ven y sé parte de una empresa que transforma desafíos en oportunidades.

Responsabilidades esenciales del Planificador de Demanda

El rol de Planificador de Demanda implica una serie de responsabilidades clave:

  • Coordinar el Proceso de S&OP para elaborar pronósticos consensuados a 12-18 meses y pronósticos estratégicos a 3-5 años.
  • Apoyar en la elaboración del presupuesto de la compañía con inputs estratégicos.
  • Promover y asegurar la precisión del pronóstico estadístico, identificando desvíos y sugiriendo acciones correctivas en coordinación con diversas áreas.
  • Elaborar reportes de desviación de pronóstico y utilizar herramientas disponibles para medir la efectividad de la colaboración en el pronóstico.
  • Garantizar el monitoreo y cumplimiento del Plan de Ventas mensual, utilizando KPI’s claves como Precisión y BIAS.

¿Qué buscamos en el candidato ideal?

Buscamos un profesional con un enfoque fuerte en la planificación y análisis. Debe contar con habilidades en:

  • Experiencia de 2 a 3 años como planificador de demanda, idealmente en Forecasting o Supply Planning.
  • Conocimientos en S&OP e IBP, y ser competente en el manejo avanzado de Excel; el uso de Power BI sería un plus.
  • Capacidad para proponer mejoras y utilizar información estadística para generar pronósticos confiables.

Se valoran competencias en planificación y análisis crítico para el desarrollo de estrategias efectivas en ventas.

Habilidades y experiencia deseables

Sería ideal que el candidato también tenga conocimientos sobre:

  • Herramientas de análisis de datos y soluciones de reporte.
  • Experiencia previa en análisis comercial u operaciones para fortalecer la capacidad de insight en la toma de decisiones.
  • Un enfoque colaborativo para interactuar de manera efectiva con diversas áreas de la empresa.

Aunque no son requisitos excluyentes, estos aspectos sumarán valor a tu perfil.

Beneficios de unirse a Agrosuper

Ofrecemos un entorno laboral enriquecedor que fomenta la salud y el bienestar. Nuestros horarios son de lunes a viernes de 08:30 a 18:00, garantizando un balance entre la vida laboral y personal. Recibirás capacitación continua y la oportunidad de formar parte de un equipo sólido que valora tus ideas.
¡Ven a ser parte de nuestra familia en Agrosuper! 🌟

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Agrosuper pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Commuting buses Agrosuper provides free commuting buses from and to the offices.
Dental insurance Agrosuper pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Agrosuper provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Decision Point LATAM
  • Santiago &nbsp Ciudad de México (In-office)
MySQL SQL Python Virtualization

Decision Point offers an entrepreneurial environment and exposure to advanced analytics in the domain of sales and marketing. The team at Decision Point is very young, energetic, and highly skilled. Our team consists of talented business consultants, data scientists and engineers who are passionate about implementing analytics in real world business problems.

A career at Decision Point is rich in global experience and offers opportunities to build lasting relationships.

Job functions

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Azure / AWS / GCP using PySpark for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, PySpark, and SQL
  • Performance Optimization: - Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness, leveraging PySpark's capabilities. - Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.

Qualifications and requirements

  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across Azure, AWS and GCP environments.
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects.
  • +1 year of experience as Data Engineer
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language and sound knowledge of Database administration like: Managing MySQL Server, MS SQL Server
  • Proficiency in Python related to Data Science (Pyspark) for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • English

Desirable skills

  • Proficiency in Microsoft Excel and hands-on experience on Excel VBA
  • Experience working with cloud platforms for deploying and managing scalable data infrastructure is a plus (Azure, GCP, AWS)
  • Experience working with Linux
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development

Conditions

  • Hybrid 4x1 in CL and 3x2 in MX from the fourth month (4 days a week in office and 1 from home, in Mexico 3 days a week in office and 2 from home)
  • Lunch and Healthy Snacks (CL)
  • Complementary Health Insurance (CL)
  • 2 Days free per quarter of the year
  • 5 extra days of vacation

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point LATAM pays or copays health insurance for employees.
Computer provided Decision Point LATAM provides a computer for your work.
Vacation over legal Decision Point LATAM gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point LATAM offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Ingeniero de Datos / Sector Financiero
  • Devsu
  • Quito (Hybrid)
User Testing Data Engineer Data Architecture
Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros.
En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.
Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo, aprendizaje continuo y la flexibilidad serán elementos muy presentes.
Buscamos un Ingeniero de Datos, para trabajar de forma hibrida desde Quito, Ecuador en proyectos retadores del sector financiero/bancario.

Funciones del cargo

  • Experiencia en optimización de bases de datos, incluyendo scripts y procedimientos almacenados (SPs).
  • Sólidos conocimientos en modelado de bases de datos relacionales y no relacionales.
  • Experiencia en el diseño de soluciones como Datawarehouse, Datamarts, Datalake, Lakehouse, Data Mesh y Data Fabric.
  • Dominio de tecnologías Cloud aplicadas a Big Data.
  • Experiencia en la construcción de ETLs, ELTs y gestión de grandes volúmenes de datos.
  • Familiaridad con principios de Clean Code y estrategias DataOps/MLOps.
  • Conocimientos de sistemas de ficheros distribuidos (Hadoop, HDFS, Spark).
  • Experiencia en arquitecturas orientadas a eventos y procesamiento batch/streaming.
  • Diseño y mantenimiento de APIs seguras y eficientes para soluciones de datos.

Requerimientos del cargo

  • Analizar requerimientos y diseñar soluciones de ingeniería de datos alineadas con la visión de Arquitectura de Datos.
  • Desarrollar y desplegar productos de datos como ETLs, ELTs y APIs, garantizando eficiencia y calidad.
  • Aplicar estrategias de testing que validen tanto criterios funcionales como no funcionales.
  • Proponer mejoras continuas en productos y procesos.
  • Participar en programación en pares para optimizar prácticas de desarrollo.
  • Resolver incidencias y proponer soluciones a largo plazo.
  • Documentar los desarrollos conforme a los estándares establecidos.
  • Diseñar y desarrollar componentes reutilizables para acelerar el proceso de desarrollo.
  • Apoyar en la mentoría y onboarding de nuevos Data Engineers.

Opcionales

  • Especialidad en áreas como Data Engineering, Computer Science, Artificial Intelligence, Data Management o afines.
  • Certificaciones Deseables: AWS Certified Data Analytics, Specialty Microsoft Certified: Azure Data Engineer Associate, Big Data MasterTrack Certificate, Azure Data Fundamentals, DevOps Engineer, Certified Data Analytics.

Condiciones

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
Gross salary $2000 - 2700 Full time
Data Analyst
  • Kabeli Selección
  • Santiago (Hybrid)
NoSQL SQL Python Tableau

En Kabeli buscamos ser socios estratégicos de nuestros clientes apoyándoles en la implementación de proyectos ágiles y en la transformación digital de sus procesos, con foco en un delivery continuo.

Nuestro objetivo es agregar valor a sus distintos productos y servicios , a través de soluciones tecnológicas innovadoras y fáciles de utilizar.

Funciones del cargo

En Kabeli, estamos buscando un Data Analyst para unirse a nuestro equipo del área de datos.

  • Asegurarse de la calidad y la integridad de los datos recopilados.
  • Estructurar los datos para que sean comprensibles y listos para el análisis.
  • Realizar análisis estadísticos y descriptivos.

Requerimientos del cargo

  • Experiencia en minería (Excluyente).
  • Dominio de Python para análisis de datos y machine learning.
  • Experiencia con herramientas como Jupyter Notebook.
  • Manejo avanzado de Tableau para construir dashboards efectivos.
  • Conocimientos sólidos en SQL y NoSQL.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Kabeli Selección pays or copays health insurance for employees.
Computer provided Kabeli Selección provides a computer for your work.
APPLY VIA WEB
Gross salary $3300 - 4000 Full time
Arquitecto de Datos / Sector Financiero
  • Devsu
  • Quito, Cuenca or Guayaquil (Hybrid)
Web server Apache Spark Spark Agile
Buscamos un Arquitecto de Datos (modalidad híbrida en QUITO) con experiencia en el diseño e implementación de soluciones de procesamiento de datos en NRT utilizando Spark . El candidato ideal deberá diseñar y construir arquitecturas escalables y realizar la integración de sistemas complejos para satisfacer las necesidades de negocio.
Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros.
En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.
Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en NRT y por lotes utilizando Spark.
  • Optimizar y mantener flujos de datos para garantizar su eficiencia y confiabilidad.
  • Colaborar con equipos multidisciplinarios para integrar sistemas y desarrollar soluciones de datos robustas.
  • Asegurar la integridad y la seguridad de los datos, aplicando las mejores prácticas y estándares de la industria.
  • Proporcionar mentoría y acompañamiento a otros miembros del equipo.
  • Cocreación y despliegue de flujos de datos en Spark vía CI/CD

Requerimientos del cargo

  • Mínimo 3 años de experiencia en arquitectura de datos.
  • Experiencia demostrable con Apache Spark y plataformas de datos al menos 3 años.
  • Conocimiento en la creación y mantenimiento de flujos de datos en NRT en al menos 3 proyectos comprobables de complejidad media o alta con gran volumen de datos.
  • Familiaridad con la gobernanza de datos y la seguridad de la información.
  • Habilidad para trabajar en entornos ágiles y dinámicos.
  • Excelentes habilidades de comunicación y trabajo en equipo.

Opcionales

  • Certificación Oracle DBA / MCSA SQL Server Administrator / DB2 DBA for Unix Linux & Windows.
  • Certificados relacionados con Arquitectura de solución y/o Arquitectura de Software.

Condiciones

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
Gross salary $1800 - 2500 Full time
Ingeniero de Datos (Python)
  • TCIT
  • Santiago (Hybrid)
SQL Django Python Virtualization

Una de nuestras misiones en TCIT es descubrir y potenciar a los mejores talentos, por lo que te invitamos a ser parte de nuestro team!

Nuestro propósito es transformar digitalmente a distintas organizaciones a través de soluciones de calidad, sostenibles e innovadoras. Trabajamos con metodologías ágiles, utilizamos tecnologías de última generación y somos expertos en desarrollo de software en tecnologías Cloud.

Algunos de nuestros desarrollos son un sistema de gestión agrícola, un sistema de remates en línea, un sistema de gestión de las causas para los tribunales judiciales, un sistema para monitoreo de certificaciones para trabajadores mineros, un sistema de liquidaciones de sueldo y otras soluciones de gestión de empresas en ámbitos como transporte de carga y bodegaje, entre muchos otros.

Además, trabajamos en países como Canadá en ambiciosos proyectos con nuestros partners tecnológicos.

¡Súmate a la revolución digital TCIT!

¿Qué harás?

  • Diseñarás, implementarás y mantendrás soluciones de datos escalables utilizando Python como stack principal
  • Desarrollarás y gestionarás infraestructuras en la nube utilizando Terraform, Docker y Kubernetes.
  • Implementarás y gestionarás servicios en Azure Functions y otras plataformas en la nube.
  • Desarrollarás y mantendrás APIs para la integración de servicios de datos.
  • Optimizarás y gestionarás bases de datos SQL para garantizar un rendimiento óptimo.
  • Colaborarás con equipos multifuncionales para integrar soluciones de datos con aplicaciones desarrolladas en Django.
  • Trabajarás en estrecha colaboración con el resto del equipo de desarrollo y también junto a los clientes involucrados.
  • Participarás en el levantamiento de requerimientos para construir, probar y generar el producto, de acuerdo a tiempos y metas definidas.
  • Participarás de forma activa en el diseño de los sistemas, plataformas o aplicaciones de los proyectos.
  • Estarás pendiente siempre de la mejora continua de los distintos sistemas, plataformas y aplicaciones, corregir errores y optimizar funcionamientos según las necesidades de los proyectos.

¿Cómo nos gustaría que fueras?

  • Título de Ingeniero en Computación, T.I., Informática o similar.
  • Desde 4 años de experiencia formales como Ingeniero de Datos, con un enfoque sólido en Python (excluyente)
  • Experiencia comprobada en servicios en la nube (Azure, AWS, GCP).
  • Experiencia en el uso de Terraform, Docker y Kubernetes.
  • Conocimiento avanzado de Azure Functions y desarrollo de APIs.
  • Experiencia con bases de datos SQL.
  • Conocimiento en desarrollo web con Django.
  • Disponibilidad para trabajar de manera híbrida (teletrabajo y oficina).
  • Capacidad para trabajar en equipos multidisciplinarios y comunicación efectiva.

Te amaríamos más si tuvieras/fueras:

  • Certificaciones en GCP
  • Certificaciones en Python
  • Certificaciones en Azure

Beneficios TCIT

  • Nuestro horario promedio hace que puedas salir a las 14:00 los días viernes (sí, a las 14:00!!)
  • Nuestras oficinas quedan a pasos del metro
  • Porque sabemos que guatita llena <3 contento, cuando vayas a trabajar a la oficina contamos con almuerzo en una cafetería cercana sin costo para ti!
  • Tendrás permisos flexibles
  • Más días de vacaciones
  • Vestimenta casual
  • Estamos afiliados a Caja de Compensación Los Andes, por lo que puedes acceder a sus cientos de beneficios y convenios
  • Estamos afiliados a la ACHS, por lo que tendrás acceso a capacitaciones, beneficios y convenios
  • Somos Google Partners, lo que significa que puedes certificarte de manera gratuita!
  • Tendrás 1 hora 30 minutos para almorzar!
  • Tenemos estacionamiento para bicicletas
  • ¡Nos encantan los asados y usamos cualquier excusa para juntarnos y compartir!
  • El día de tu cumpleaños puedes salir a las 16:00 para celebrar como se debe
  • Si no tienes pc no te preocupes, te entregamos uno! (si este muere, tranqui! te lo reparamos)

¡Te esperamos!

APPLY VIA WEB
$$$ Full time
Applied Economics Scientist
  • NeuralWorks
  • Santiago (Hybrid)
SQL C Python R

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Descripción del trabajo

Como Applied Economics Scientist, te sumaras a un equipo ya constituido de Analítica Avanzada, trabajando en conjunto con otras disciplinas tales como Data Scientist, Machine Learning Engineers, DevOps, equipos de producto y gestión.

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Tu trabajo como Applied Scientist será promover y realizar experimentos para orientar los esfuerzos e incrementos de los equipos. Estos desarrollos formarán parte de la transformación data-driven de la empresa con el propósito de fortalecer y eficientar la toma de decisiones basadas en análisis técnicos rigurosos de datos.

Como Applied Scientist tu trabajo consistirá en:

  • Participar en la gestión de la medición de impacto de los productos, estimando y relacionando el efecto de las acciones en los principales indicadores de la compañía (Ingreso, Costo, Experiencia de Cliente, Puntualidad, entre otros), utilizando técnicas experimentales y observacionales.
  • Formar parte del proceso de habilitación de la experimentación en distintos equipos, identificando los métodos estadísticos adecuados para medir el impacto en cada dominio.
  • Participar de la creación de una plataforma de experimentación.

Es un trabajo muy dinámico, donde aprenderás de diferentes proyectos, colaborando con múltiples disciplinas de negocio, datos e IA, trabajando en un ambiente donde la curiosidad, colaboración y empatía son esenciales. Esperamos ver desplegadas tus ganas de aprender y enseñar.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Calificaciones clave

  • Estudios de Ingeniería Civil Industrial, Economía o similar.
  • Conocimiento en el área de estudios de evaluación de impacto utilizando técnicas experimentales y observacionales, tales como RCT (Randomized Control Trials), Técnicas econométricas como Diferencia en Diferencias, controles sintéticos, variables instrumentales, y Propensity Score Matching, entre otros.
  • Dominio intermedio de algún lenguaje de scripting orientado a análisis de datos (R y/o Python), teniendo como base manejo de flujos, condiciones, funciones; así como comodidad utilizando el principal stack de librerías como tidyverse para R, pandas y statsmodels para Python.
  • Conocimiento acerca de algún lenguaje declarativo de consultas a base de datos (SQL) para preparar conjuntos de datos para análisis, así como para caracterizar su comportamiento.
  • Habilidad para trabajar en equipo, levantar requerimientos y conseguir resultados.
  • Buen manejo comunicacional y skills de colaboración.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia trabajando con equipos de datos y de análisis en torno a indicadores de negocio.
  • Conocimiento de metodologías ágiles.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
IT Project Manager
  • NeuralWorks
  • Santiago (Hybrid)
C Agile English Project Manager

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.

Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.

Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.

Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Descripción del trabajo

La posición de IT Project Manager se enmarca dentro del trabajo de proyectos tecnológicos. Te sumarás a un equipo ya constituido de Analítica Avanzada, trabajando en conjunto con otras disciplinas tales como Data Scientist, Machine Learning Engineers, DevOps y equipos de producto.

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible y objetos usando visión por computador.

Tu trabajo como IT Project Manager será definir los problemas empresariales que el análisis de datos puede ayudar a resolver, guiar a los equipos técnicos en la creación de soluciones impulsadas por análisis para estos problemas e integrar dichas soluciones en las operaciones comerciales. Es un trabajo especializado que requiere un sólido sentido del negocio, conocimientos técnicos y habilidades en la gestión y entrega de proyectos.
Cómo IT Project Manager tu trabajo consistirá en:

  • Encargarte del levantamiento de procesos, indicadores y problemas del negocio.
  • Evaluar la factibilidad de distintos productos de datos enfocados en resolver los problemas del negocio.
  • Entender las necesidades del negocio, el potencial de los datos y las palancas de impacto para poder evaluar y priorizar las oportunidades.
  • Desarrollar la visión y planificación del producto en conjunto al equipo de negocio y desarrollo.
  • Dar seguimiento e informar los avances de la planificación realizada a las diferentes instancias involucradas.

Es un trabajo muy dinámico, donde aprenderás de diferentes proyectos, colaborando con múltiples disciplinas de negocio, datos e IA, trabajando en un ambiente donde la curiosidad, colaboración y empatía son esenciales. Esperamos ver desplegadas tus ganas de aprender y enseñar.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación.

Calificaciones clave

  • Estudios de Ingeniería Civil Industrial o similares.
  • Experiencia de al menos 2 años en el cargo o similar.
  • Experiencia con proyectos tecnológicos con integraciones de datos.
  • Experiencia con metodologías ágiles.
  • Habilidad para trabajar en equipo, levantar requerimientos y conseguir resultados.
  • Excelente manejo comunicacional y habilidades de colaboración.
  • Debes tener la capacidad análitica para medir impacto de productos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia trabajando con equipos de datos y de análisis en torno a indicadores de negocio.
  • Experiencia trabajando con bigquery.
  • Experiencia liderando el desarrollo de proyectos multidisciplinarios, enfocándose en cumplir las metas organizacionales internas, de los clientes y de liderazgo de equipos.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Salida de “teambuilding” mensual

APPLY VIA WEB
$$$ Full time
Analytics Translator
  • NeuralWorks
  • Santiago (Hybrid)
C Analytics Agile English

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Descripción del trabajo

La posición de Analytics Translator se enmarca dentro del trabajo de proyectos tecnológicos. Te sumarás a un equipo ya constituido de Analítica Avanzada, trabajando en conjunto con otras disciplinas tales como Data Scientist, Machine Learning Engineers, DevOps y equipos de producto.

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible y objetos usando visión por computador.

Tu trabajo como Analytics Translator será definir los problemas empresariales que el análisis de datos puede ayudar a resolver, guiar a los equipos técnicos en la creación de soluciones impulsadas por análisis para estos problemas e integrar dichas soluciones en las operaciones comerciales. Es un trabajo especializado que requiere un sólido sentido del negocio, conocimientos técnicos y habilidades en la gestión y entrega de proyectos.
Cómo Analytics Translator tu trabajo consistirá en:

  • Encargarte del levantamiento de procesos, indicadores y problemas del negocio.
  • Evaluar la factibilidad de distintos productos de datos enfocados en resolver los problemas del negocio.
  • Entender las necesidades del negocio, el potencial de los datos y las palancas de impacto para poder evaluar y priorizar las oportunidades.
  • Desarrollar la visión y planificación del producto en conjunto al equipo de negocio y desarrollo.
  • Dar seguimiento e informar los avances de la planificación realizada a las diferentes instancias involucradas.

Es un trabajo muy dinámico, donde aprenderás de diferentes proyectos, colaborando con múltiples disciplinas de negocio, datos e IA, trabajando en un ambiente donde la curiosidad, colaboración y empatía son esenciales. Esperamos ver desplegadas tus ganas de aprender y enseñar.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación.

Calificaciones clave

  • Estudios de Ingeniería Civil Industrial o similares.
  • Experiencia de al menos 2 años en el cargo o similar.
  • Experiencia con proyectos tecnológicos con integraciones de datos.
  • Experiencia con metodologías ágiles.
  • Habilidad para trabajar en equipo, levantar requerimientos y conseguir resultados.
  • Excelente manejo comunicacional y habilidades de colaboración.
  • Debes tener la capacidad análitica para medir impacto de productos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia trabajando con equipos de datos y de análisis en torno a indicadores de negocio.
  • Experiencia trabajando con bigquery.
  • Experiencia liderando el desarrollo de proyectos multidisciplinarios, enfocándose en cumplir las metas organizacionales internas, de los clientes y de liderazgo de equipos.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage NeuralWorks pays or copays health insurance for employees.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Commuting stipend NeuralWorks offers a stipend to cover some commuting costs.
Computer provided NeuralWorks provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend NeuralWorks covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
SQL C Python English
NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
SQL Python Virtualization Azure

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.

Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.

Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.

Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendras tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer (AWS)
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python Virtualization ETL

En BC Tecnología, somos una consultora de TI enfocada en crear soluciones innovadoras para nuestros clientes en servicios financieros, seguros, retail y gobierno. Nuestro equipo está compuesto por expertos en diversas áreas de tecnología, y estamos comprometidos con el desarrollo profesional y el crecimiento personal de nuestros colaboradores. Este rol está diseñado para ser parte de un equipo ágil en constante mejora y adaptación a las necesidades del mercado, donde la infraestructura Big Data es clave.

✅ Funciones

En esta posición, tu labor será fundamental para garantizar el suministro de datos de manera accesible y relevante para los usuarios. Tus responsabilidades incluirán:

  • Proporcionar datos especializados en infraestructura Big Data y contribuir al desarrollo de aplicaciones relacionadas.
  • Realizar análisis y participar en propuestas de mejora continua para procesos y sistemas a tu cargo.
  • Ejecutar pruebas y levantar alertas para optimizar las iniciativas implementadas.
  • Incorporar diversos ámbitos en el levantamiento de actividades siguiendo las normas de procedimientos establecidos.
  • Asegurar la integridad de los datos manipulados mediante procedimientos de seguridad y control existentes, garantizando un servicio de calidad.

✅ Requerimiento:

Necesitamos que cuentes con al menos 3 años de experiencia en los siguientes ámbitos:

  • Gestión de datos, abarcando bases de datos, arquitecturas de clústeres y sistemas de procesamiento.
  • Lenguajes de programación y bases de datos, preferentemente en Python, SQL, Cloud Computing y Cobol SQL (Mainframe).
  • Experiencia con servicios de AWS: EC2, S3, Glue, Lambda, Athena, Redshift, así como en Python y Linux.
  • ETL y manipulación de datos en entornos cloud, utilizando herramientas de extracción y procesamiento.
  • Modelamiento y exploración de datos, diseñando estructuras y realizando análisis avanzado de datos.

Valoraremos habilidades de análisis, pensamiento crítico y un enfoque proactivo para resolver problemas, así como la capacidad de trabajar efectivamente en un entorno colaborativo.

Desirable

Se considera un plus si tienes experiencia en metodologías ágiles y en la creación de soluciones innovadoras que transformen la forma en que se gestionan los datos. También es deseable poseer conocimientos sobre mejores prácticas de manejo de información en la nube y automatización de procesos mediante scripts.

✅ Condiciones:

  • -Contrato inicial a 3 meses luego indefinido
  • -Metodología de trabajo: Hibrida
  • -Disponibilidad lunes a viernes 8:30 a 18:30h
  • -Salario hasta 2.2 liquidos
  • -Beneficios (Seguro Complementario, Amipass $4.500 por día laborado, convenios, actividades, bonos)

APPLY VIA WEB
$850 - 1000 Full time
Analista de Datos BI / Front (Junior)
  • Lisit
  • Santiago (Hybrid)
PHP Python Power BI Tableau
🌍 ¡Únete a Lisit, líderes en consultoría digital!

Estamos en búsqueda de un Analista de Datos Junior con conocimientos solidos en Power BI y Front para apoyar en el análisis y modelamiento de datos. Este rol es ideal para profesionales en áreas como, Ingeniería en Informática, estadística, data science, carreras afines que tengan interés en la Inteligencia de Negocios y el análisis de datos. Es fundamental contar con conocimientos en herramientas como Power BI, Tableau, Front y similares, y tener una fuerte capacidad analítica y de comunicación para interpretar y traducir datos en información accionable. Habilidades comunicacionales y relacionamiento.

Funciones del cargo

  • Soporte en el desarrollo y mantenimiento de reportes y dashboards.
  • Participar en proyectos de BI, apoyando la integración y visualización de datos y diseño.
  • Analizar y modelar datos básicos para optimizar la toma de decisiones en las diferentes áreas de la empresa.
  • Asignación 100%

Requerimientos del cargo

  • Título universitario en Ingeniería en Informática, Estadística, Data Science o afines.
  • Conocimientos de herramientas de visualización de datos y diseño (Power BI, Tableau, Python, Front PHP-JAVA ).
  • Capacidad para trabajar en equipo y habilidades de comunicación.

Opcionales

  • Power Bi desktop.
  • Manejo de bases de datos.
  • SQL Server Management Studio.
  • Excel nivel intermedio.
  • Power Query.
  • Front PHP /JAVASCRIPT

Condiciones

Trabajo Hibrido / Santiago Centro.

APPLY VIA WEB
Gross salary $3000 - 3800 Full time
Arquitecto de Datos Senior
  • Kabeli Selección
  • Santiago (Hybrid)
SQL Python Scala Virtualization

En Kabeli buscamos ser socios estratégicos de nuestros clientes apoyándoles en la implementación de proyectos ágiles y en la transformación digital de sus procesos, con foco en un delivery continuo.

Nuestro objetivo es agregar valor a sus distintos productos y servicios , a través de soluciones tecnológicas innovadoras y fáciles de utilizar.

Funciones del cargo

Kabeli está en búsqueda de un Arquitecto de Datos para unirse a nuestro equipo del área financiera. Este rol estratégico será clave en el diseño, implementación y optimización de arquitecturas de datos.

  • Diseñar y desarrollar arquitecturas de datos escalables y eficientes para proyectos financieros.
  • Liderar la integración de soluciones basadas en AWS (S3, Redshift, Glue, entre otros).
  • Implementar estrategias de gobernanza y calidad de datos.

Requerimientos del cargo

  • Mínimo 5 años trabajando con arquitecturas de datos en entornos financieros.
  • Dominio avanzado de AWS (S3, Lambda, Redshift, Glue, Athena, etc.).
  • Experiencia en diseño de modelos de datos relacionales y no relacionales.
  • Conocimientos en SQL, Python o Scala.

Opcionales

  • Certificación en AWS

Condiciones

  • 2 días administrativos anuales.
  • Día libre en el cumpleaños del empleado.
  • Bono de Fiestas Patrias y Navidad.
  • Seguro complementario de salud, vida y dental.
  • Otros beneficios adicionales.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Kabeli Selección pays or copays health insurance for employees.
Computer provided Kabeli Selección provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2800 - 3200 Full time
Cloud Data Architect
  • ARKHO
Virtualization ETL Amazon Web Services Cloud Computing

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Funciones

Estamos en busca de un Arquitecto Cloud con dominio en AWS, con por lo menos tres años de experiencia en el área de Analítica de Datos para incorporarse a nuestro equipo ágil de proyectos y operación en la nube. Este perfil será parte de un equipo de proyecto que atenderá diferentes necesidades de nuestros clientes y que libera constantemente entregas y mejoras a las plataformas en la nube. Este perfil tendrá muchos retos de aprendizaje sobre tecnologías en la nube, que requerirán esfuerzo y metas de certificación. Además de desarrollar, debes ser un excelente técnico y querer tomar responsabilidades de proyectos. Nos gusta conformar equipos colaborativos y auto-gestionados, por lo que las habilidades de comunicación y responsabilidad son muy importantes.
Principales funciones:

  • Diseñar y desarrollar arquitecturas robustas en AWS, considerando la optimización de recursos, la seguridad y la escalabilidad para garantizar el rendimiento óptimo de las aplicaciones y servicios.
  • Cumplir con los estándares de calidad, implementando y promoviendo las mejores prácticas en la nube para maximizar la eficiencia operativa y la seguridad.
  • Identificar oportunidades de optimización de costos y recursos, manteniendo un equilibrio entre rendimiento y eficiencia económica en la infraestructura cloud

¡Buscamos profesionales de excelencia e íntegros dentro y fuera de la cancha!

Perfil del Archer

El candidato ideal debe contar con experiencia previa en arquitecturas de sistemas, especialmente en AWS, así como también en la creación y optimización de procesos ETL. Es fundamental tener habilidades de comunicación efectiva para interactuar con diferentes aliados y abordar problemáticas diversas de manera eficiente. Se priorizan las personas que demuestren capacidad para el autoaprendizaje y que se mantengan al día con las últimas tendencias y tecnologías en el ámbito de la nube.

El candidato estará involucrado en:

  • Pipelines de datos, transformaciones y procesar datos desde SAP. Se requieren sólidos conocimientos en ETLs.
  • Definiciones técnicas de arquitectura.
  • Proof of Concept (PoC) de nuevas tecnologías en AWS.
  • Capacidad de investigar y aprender rápidamente.
  • Comunicación y propuesta de alternativas de solución a problemáticas del negocio, tanto en entorno cloud como on premise.

Habilidades opcionales

  • Experiencia con herramientas de orquestación de datos, capacidades en DevOps, y certificaciones adicionales en tecnologías de la nube.
  • Conocimiento en metodologías ágiles.
  • Trabajo en entornos multidisciplinarios.
  • Contar con Certificaciones en AWS cloud.

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Seguro complementario (solo para Chile) o bono de salud.
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad
  • Bonda (Workshops de temáticas diversas, Wellness y descuentos en locales comerciales)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage ARKHO pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Business Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Scrum Product Owner Agile Business Analyst
BC Tecnología es una consultora de TI con un equipo de expertos dedicados a ofrecer soluciones innovadoras en diversas áreas tecnológicas. Nos especializamos en la administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Formamos equipos de trabajo ágiles que se enfocan en las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Durante seis años, hemos proporcionado soluciones personalizadas y efectivas.
En el área específica de Nuevos Negocios, buscamos fortalecer nuestro equipo con un Business Analyst innovador. Este profesional será esencial para nuestro enfoque en la mejora continua y la maximización del valor entregado a nuestros clientes.

Responsabilidades del Business Analyst

En este rol, el Business Analyst asumirá las siguientes responsabilidades:
  • Gestión del Backlog: Colaborar con el Product Owner para organizar y priorizar el backlog del producto, alineando mejoras y funcionalidades con las necesidades del negocio.
  • Creación y Refinamiento de Historias de Usuario: Redactar y asegurar que las historias de usuario sean claras y bien definidas para el equipo de desarrollo.
  • Gestión de Dependencias: Identificar interacciones con otras áreas y gestionar dependencias para mantener un flujo de trabajo óptimo.
  • Solución de Problemas: Colaborar con el equipo para identificar y proponer soluciones innovadoras, mejorando la experiencia del cliente.
  • Comunicación y Colaboración: Actuar como puente entre el equipo de desarrollo y las definiciones de negocio.
  • Revisión de KPIs: Monitorear el rendimiento del producto y asegurar el cumplimiento de los KPIs establecidos.

Perfil del Candidato

Requisitos Obligatorios:
  • 1 a 3 años de experiencia como Business Analyst, Product Owner o en roles similares en entornos ágiles.
  • Conocimiento en gestión de backlogs y definición de historias de usuario.
  • Experiencia en análisis y seguimiento de KPIs.
  • Experiencia en metodologías ágiles (Scrum, Kanban, etc.) de al menos un año.
  • Excelentes habilidades de comunicación y trabajo en equipo.
  • Disponibilidad para asistir presencialmente en Santiago al menos una vez por semana.

Requisitos Deseables

Además, sería ideal contar con:
  • Conocimiento en aplicaciones móviles.
  • Experiencia en la plataforma Vtex.
  • Conocimientos técnicos básicos de desarrollo para facilitar la colaboración con el equipo técnico.

Beneficios de Trabajar con Nosotros

Ofrecemos un ambiente de trabajo colaborativo y estimulante. Los beneficios incluyen:
  • Seguro complementario para colaboradores.
  • Amipass de $4.500 por día trabajado.
  • Convenios y actividades para fomentar el bienestar del equipo.
  • Bonos por rendimiento.
  • Un contrato inicial de 12 meses con posibilidad de extensión, y un horario flexible de lunes a viernes.
Valoramos a nuestros colaboradores y estamos comprometidos con su desarrollo profesional.

APPLY VIA WEB
$2200 - 2300 Full time
Data Engineer (GCP)
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python BigQuery Big Data

En esta posición, te unirás a un equipo de expertos en análisis de datos dentro de BC Tecnología, una consultora de TI que se especializa en la gestión de proyectos y servicios IT para diversos sectores, incluyendo servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en brindar soluciones efectivas y de alta calidad a nuestros clientes, utilizando metodologías ágiles para adaptarnos rápidamente a sus necesidades.

El equipo al que te incorporarás trabaja directamente con nuestros clientes del sector bancario para mejorar la toma de decisiones a través del análisis avanzado de datos. Como Data Engineer, tu rol será crucial para optimizar procesos de datos y proporcionar insights que ayuden a impulsar la eficiencia y alcanzar los objetivos estratégicos de nuestros clientes.

Funciones del Rol

Como Data Engineer (GCP), tus principales responsabilidades incluirán:

  • Diseñar e implementar procesos de ingesta y modelamiento de datos en GCP.
  • Desarrollar y optimizar flujos de trabajo de datos (ETLs) utilizando las herramientas de GCP.
  • Mantener y mejorar pipelines de datos en BigQuery.
  • Implementar funciones en Cloud Functions para la automatización de procesos.
  • Gestionar la orquestación de tareas mediante Airflow.
  • Colaborar en proyectos utilizando herramientas de versionamiento como GitLab.
  • Crear y documentar soluciones de modelamiento de datos con herramientas como DBT.
  • Asegurar la calidad y escalabilidad de los modelos y pipelines de datos.

Descripción del Perfil

Buscamos un profesional con la siguiente experiencia y habilidades:

  • Experiencia en GCP: Uso de productos clave como BigQuery, Cloud Functions, Cloud Storage y Airflow.
  • Conocimientos avanzados en SQL y Python: Capacidad para desarrollar consultas complejas y automatizar procesos.
  • Gestión de versionamiento: Experiencia práctica con sistemas de control de versiones como GitLab, Bitbucket o GitHub.

Además, se valorará la habilidad para trabajar en equipo y realizar adaptaciones en un entorno de trabajo en evolución constante.

Habilidades Deseables

Aunque no son requisitos obligatorios, son valoradas las siguientes competencias:

  • Experiencia previa en la implementación de soluciones de almacenamiento de datos en la nube.
  • Capacidades de comunicación efectiva y trabajo colaborativo.
  • Experiencia en entornos ágil y retador.

Beneficios Ofrecidos

Condiciones:

  • -Contrato por proyecto estimado a 3 meses con posibilidad de extensión
  • -Metodología de trabajo: Hibrido a demanda (promedió 2 a 3 días a la semana / Santiago Centro)
  • -Disponibilidad lunes a viernes
  • -Salario a convenir
  • -Beneficios (Seguro Complementario, Amipass $4.500 por día laborado, convenios, actividades, bonos)

APPLY VIA WEB
Gross salary $750 - 1100 Full time
Data Analyst
  • Geolaboral
  • Santiago (In-office)
English Data Analysis

En *Geolaboral*, nos dedicamos a impulsar la innovación a través del análisis de datos y la integración de tecnologías. Buscamos un profesional motivado que desee crecer y aprender usando Microsoft Cloud con el objetivo de generar informes, crear aplicaciones y automatizar procesos dentro de la organización cliente.

Responsabilidades del Candidato

  • Crear conjuntos de datos e informes utilizando Microsoft Fabric y Power BI.
  • Desarrollar aplicaciones de bajo código mediante Power Apps.
  • Implementar flujos de trabajo automatizados utilizando Power Automate.
  • Resolver problemas e inquietudes de los clientes internos de manera oportuna.
  • Educar y capacitar a los usuarios internos sobre las funcionalidades de los desarrollos realizados.

Perfil del Candidato

Buscamos un ingeniero en informática o carrera afín con menos de dos años de experiencia en el campo. El candidato ideal debe poseer conocimientos en lenguajes de programación, así como habilidades en inglés. Es fundamental tener ganas de aprender y adaptarse a nuevas tecnologías.

Habilidades Deseables

Añadirán puntos extra si has tenido experiencia creando informes con Power BI o herramientas similares, desarrollado aplicaciones usando Power Apps o plataformas similares, y implementado flujos de trabajo con Power Automate. También se valorará la capacidad de diseñar sitios web utilizando HTML y CSS, así como un conocimiento avanzado de Excel.

Beneficios del Trabajo

Ofrecemos una banda salarial competitiva entre 800.000 y 1.000.000 CLP líquidos. El trabajo se realiza de manera presencial en las oficinas de nuestro cliente en Las Condes. Valoramos a los profesionales que están comenzando su carrera, por lo que si tienes entre 0 y 2 años de experiencia, este es el lugar ideal para ti.

Computer provided Geolaboral provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Desarrollador C# ETL
  • Kibernum
JSON SQL C# C
🚀 Kibernum es una compañía chilena con 33 años de experiencia, orientada a crear e implementar servicios IT de Excelencia, con presencia en Chile y Colombia. Actualmente contamos con una dotación que supera los 1500 colaboradores, cuyas áreas de expertise se destacan entre otras: IT Staffing, IT Academy y IT Consulting.

Funciones del cargo

El objetivo del cargo en el área de Informática es ejecutar procesos ETL eficientes y de alta calidad utilizando SSIS y C#, integrando datos de múltiples fuentes, asegurando la precisión y consistencia de los datos, y optimizando el rendimiento de las soluciones de bases de datos en entornos Microsoft.

  • Desarrollar y gestionar procesos ETL en SSIS, incluyendo flujos de control y datos avanzados (Lookup, Script Task, Derived Columns).
  • Implementar transformaciones complejas y validaciones de datos para cumplir con los requisitos del negocio.
  • Conectar y extraer datos de diversas fuentes, configurando adecuadamente archivos planos y APIs.
  • Diseñar y modelar bases de datos en SQL Server, optimizando tablas, índices y claves.
  • Asegurar la calidad y precisión de los datos mediante limpieza y auditoría de procesos ETL.
  • Automatizar procesos ETL en SSIS para maximizar la eficiencia y optimizar tiempos de ejecución.
  • Aplicar técnicas avanzadas de transformación y estandarización de datos, como eliminación de duplicados.
  • Utilizar C# en tareas de scripting avanzadas, incluyendo acceso a recursos protegidos y descarga de archivos desde la nube.
  • Ejecutar consultas y procedimientos en T-SQL para transformaciones complejas.

Requerimientos del cargo

  • Al menos 3 años de experiencia en desarrollo de procesos ETL con SSIS en entornos Microsoft.
  • Dominio de la programación en C# y T-SQL.
  • Experiencia en el manejo de bases de datos SQL Server.
  • Conocimiento en integración de fuentes de datos desde múltiples orígenes: archivos planos, APIs RESTful/SOAP, bases de datos SQL Server, y fuentes XML/JSON.
  • Conocimiento de servicios de Microsoft como Azure y OneDrive.
  • Capacidad para trabajar con grandes volúmenes de datos y optimizar el rendimiento de paquetes SSIS.

Condiciones

  • Seguro de salud, vida y dental.
  • Reajuste periódico de remuneración.
  • Plan de capacitación continua.
  • Bonos por Fiestas Patrias y Navidad.

APPLY VIA WEB
$$$ Full time
Data Scientist Analytics
  • BNP Paribas Cardif
  • Santiago (Hybrid)
SQL Analytics Python User Testing

¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

Funciones del cargo

Hoy buscamos a un Científico de datos que se sume al equipo de Analytics/Inteligencia Artificial, donde tú misión será:

  • Idear y desarrollar soluciones innovadoras junto al equipo de negocios y al equipo Analytics de la compañía, desarrollando y entregando distintos modelos predictivos que están definidos en el roadmap de trabajo entre BNP Paribas Cardif.
  • Realizar estudios y gestionar o asesorar proyectos con fuerte dimensión analítica, con el objetivo de derivar indicadores concretos que aclaren la toma de decisiones y optimicen los procesos de negocio.

¿Cuáles son los principales desafíos del cargo?

  • Liderar y contribuir al desarrollo de modelos de analytics de excelencia y primer nivel, utilizando metodologías matemática y estadísticas.
  • Ser disruptivo e innovador en proponer nuevos métodos que contribuyan a rentabilizar el negocio.
  • Transmitir de manera clara los conocimientos técnicos y proyectos que sean desarrollados a la alta dirección territorial (Chile) y de Casa Matriz (Francia).
  • Observar, cuestionar o validar constantemente todos los procesos ejecutados actualmente con una mirada crítica con el fin de perfeccionarlos.

Requerimientos del cargo

Requisitos:

  • Titulado de Ingeniería en matemática, Ingeniería Informática, Ingeniería Estadística, Ingeniería Civil Industrial, Actuario o carrera afín.
  • Tenga experiencia de al menos Mínimo 1 año en posiciones y/o tareas similares, experiencia en data science y experiencia con Python.
  • Inglés sobre B1 (se evaluará mediante la entrevista).

Deseable:

  • Conocimiento de las herramientas y métodos de procesamiento de datos
  • Utilice herramientas de modelamiento estadístico
  • Dominio de A / B testing y de herramientas / protocolos de prueba multivariante
  • Conocimientos básicos en base de datos (SQL)
  • Visualización de datos e innovar en esta área
  • Realice vigilancia técnica activa para su campo

Beneficios

¿Y cuáles son nuestros beneficios?

Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.

¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.

Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.

Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.

Queremos que seas tú mismo: Contamos con política de vestimenta flexible.

Y muchos otros beneficios que podrás conocer al avanzar en nuestro proceso de selección

¿Te sumas a la revolución de la industria del seguro?
Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Analista Business Intelligence (BI)
  • Brain Food
  • Ciudad de México (Hybrid)
MySQL SQL Virtualization Amazon Web Services

Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.

Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.

Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

¿Cuáles serán tus funciones?

Queremos encontrar profesionales con conocimientos de reportería e inteligencia de datos y negocios, para apoyar en proyectos de consultoría de Advanced Analytics y Transformación Digital, mediante el desarrollo de indicadores, visualizaciones y reportes que agreguen valor tanto para el equipo interno, como para los clientes y sus requerimientos.

Serás parte del equipo de Estrategia de Brain Food y entre las principales funciones que se deberán desempeñar se encuentran:

  • Diseñar y crear modelos de datos para variados proyectos, áreas y rubros
  • Diseñar y optimizar indicadores, dashboards y reportes
  • Comprender las necesidades de los clientes y su negocio, para proponer proactivamente mejoras y desarrollos de visualizaciones
  • Capacidad de entender los requerimientos de clientes, interpretar sus necesidades y proponer soluciones de reportería acordes a estas.
  • Poder relacionarse con las personas del equipo de ésta y otras disciplinas para elaborar soluciones integrales para el cliente.

El cargo estará supervisado por un Jefe o Gerente de proyecto.

¿Cuáles son los requerimientos del cargo?

  • Experiencia en proyectos BI
  • Uso de herramientas de visualización, particularmente PowerBI y Tableau.
  • Experiencia en publicar y compartir soluciones de BI en entornos cloud (particularmente en AWS)
  • Experiencia en acceso a distintas fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
  • Experiencia desarrollando modelos de datos para usos analíticos y programación de ETLs
  • Experiencia laboral demostrable >= 2 años

Requisitos deseables pero no excluyentes

  • Conocimiento en PowerBI + Tableau

¿Qué ofrecemos?

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando con grandes empresas en proyectos desafiantes de alta complejidad.
  • Trabajar no es todo: Promovemos el descanso con 11 días libres adicionales al año.
  • Flexibilidad en la vestimenta.
  • Trabajo híbrido o 100% remoto sujeto a requerimientos de los clientes.
  • Para mejorar como profesionales contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Tenemos un plan de participación en el reparto de utilidades de la empresa después de un determinado tiempo.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, centrado en el apoyo entre equipos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Ingeniero Datos Ibp
  • Agrosuper
  • Rancagua (In-office)
MySQL SQL Virtualization Amazon Web Services

Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.

Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.

Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

¿Cuáles serán tus funciones?

Queremos encontrar profesionales con conocimientos de reportería e inteligencia de datos y negocios, para apoyar en proyectos de consultoría de Advanced Analytics y Transformación Digital, mediante el desarrollo de indicadores, visualizaciones y reportes que agreguen valor tanto para el equipo interno, como para los clientes y sus requerimientos.

Serás parte del equipo de Estrategia de Brain Food y entre las principales funciones que se deberán desempeñar se encuentran:

  • Diseñar y crear modelos de datos para variados proyectos, áreas y rubros
  • Diseñar y optimizar indicadores, dashboards y reportes
  • Comprender las necesidades de los clientes y su negocio, para proponer proactivamente mejoras y desarrollos de visualizaciones
  • Capacidad de entender los requerimientos de clientes, interpretar sus necesidades y proponer soluciones de reportería acordes a estas.
  • Poder relacionarse con las personas del equipo de ésta y otras disciplinas para elaborar soluciones integrales para el cliente.

El cargo estará supervisado por un Jefe o Gerente de proyecto.

¿Cuáles son los requerimientos del cargo?

  • Experiencia en proyectos BI
  • Uso de herramientas de visualización, particularmente PowerBI y Tableau.
  • Experiencia en publicar y compartir soluciones de BI en entornos cloud (particularmente en AWS)
  • Experiencia en acceso a distintas fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
  • Experiencia desarrollando modelos de datos para usos analíticos y programación de ETLs
  • Experiencia laboral demostrable >= 2 años

Requisitos deseables pero no excluyentes

  • Conocimiento en PowerBI + Tableau

¿Qué ofrecemos?

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando con grandes empresas en proyectos desafiantes de alta complejidad.
  • Trabajar no es todo: Promovemos el descanso con 11 días libres adicionales al año.
  • Flexibilidad en la vestimenta.
  • Trabajo híbrido o 100% remoto sujeto a requerimientos de los clientes.
  • Para mejorar como profesionales contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Tenemos un plan de participación en el reparto de utilidades de la empresa después de un determinado tiempo.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, centrado en el apoyo entre equipos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Jefe de Datos Ibp
  • Agrosuper
  • Rancagua (In-office)
SQL Python R Big Data
En Agrosuper, estamos enfocados en llevar alimentos de alta calidad a familias en Chile y el mundo. Con un equipo que supera los 13,000 empleados, valoramos el crecimiento, la innovación y la colaboración. Buscamos un Especialista en Datos IBP que se una a nosotros en esta misión, promoviendo la calidad y consistencia de nuestros datos en todos los negocios, y asegurando la integración eficaz de nuestros sistemas.

Responsabilidades Principales

El Especialista en Datos IBP tendrá como misión velar por la calidad y consistencia de los datos en la planificación integrada de negocio (IBP) de forma centralizada. Esto incluye:
  • Desarrollar y mantener la estrategia de datos corporativa.
  • Identificar y gestionar la fuente de origen de los datos, garantizando su correcta integración en todos los sistemas de la empresa.
  • Supervisar el proceso de recopilación y análisis de datos, asegurando su precisión y disponibilidad.
  • Colaborar con diferentes departamentos para mejorar la calidad de los datos y el flujo de información.

Requisitos de Cargo

Estamos buscando a un profesional con al menos 5 años de experiencia en proyectos SAP, específicamente en los módulos MM, SD y PP. Es esencial contar con conocimientos en gobierno de datos y haber trabajado en la definición de políticas, procesos y estándares dentro de este ámbito. Se requiere dominio en SQL y capacidad para programar en Python, además de gozar de habilidades para utilizar R.
Además, buscamos personas con:
  • Influencia y habilidades para la autogestión.
  • Disposición para la mejora continua.
  • Capacidad para resolver problemas de forma eficaz.

Conocimientos Adicionales Valorables

La certificación en SAP IBP es altamente valorada. Cualquier experiencia previa en herramientas de análisis y visualización de datos también será considerada un plus. Además, el dominio de otro idioma será un beneficio en nuestra comunicación interdepartamental.

¿Qué ofrecemos?

En Agrosuper, no solo creemos en el desarrollo profesional, sino que también promovemos un ambiente laboral que se enfoca en el bienestar personal. Nuestros horarios son de lunes a viernes, de 08:30 a 18:00, permitiendo un equilibrio entre la vida laboral y personal. Fomentamos un entorno que valora tus ideas y donde te sentirás parte de un equipo comprometido. ¡Ven a ser parte de nuestra familia en Agrosuper! 🌟

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Agrosuper provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Commuting buses Agrosuper provides free commuting buses from and to the offices.
Health coverage Agrosuper pays or copays health insurance for employees.
Dental insurance Agrosuper pays or copays dental insurance for employees.
Computer provided Agrosuper provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
Gross salary $400 - 600 Full time
Práctica Profesional Ingeniero Trainee
  • Vivesimple.cl
  • Santiago (Hybrid)
Excel SQL PHP Python
Datanido.com es una plataforma con data para el mercado inmobiliario, con operaciones en Chile, Perú y Colombia, donde ayudamos a nuestros clientes a monitorear/analizar el mercado inmobiliario en tiempo real y tomar decisiones más eficientes. Usamos tecnología e inteligencia desarrollada por nosotros, lo que nos permite trabajar en base a información pública, usando técnicas de machine learning y Big Data siendo capaces de transformarla en un sistema muy sólido de cara al cliente. Somos un startup con gran potencial de crecimiento en Latam, trabajamos con empresas líderes del mercado, transformándonos en un referente a nivel regional para que el análisis del mercado inmobiliario sea más eficiente, abierto y tecnológico.

Principales funciones y responsabilidades:

  • Monitorear y analizar el rendimiento de nuestro sistema de procesamiento de data.
  • Aseguramiento de calidad de los productos digitales.
  • Proponer de manera proactiva mejoras en el control de los procesos y la data.
  • Entender y conducir internamente con el equipo, dudas de clientes sobre el uso de nuestras plataformas y/o de la data que proveemos.

Qué buscamos?

Buscamos a un Ingeniero Civil Industrial, Ingeniero Comercial o afín que quiera hacer su práctica profesional con nosotros, que posea gran interés y ganas de crear productos/servicio basados en data, ayudando a resolver desafíos relacionados con la operación y aseguramiento de calidad de nuestras plataformas en principio, para después contar con la posibilidad de formar parte del equipo y hacerse cargo de nuevos desafíos relacionados al desarrollo de producto y mejoramiento de procesos basados en las necesidades de nuestros clientes.
Deberá manejar herramientas para el análisis/visualización de datos (Deseable SQL, Excel, R, Tableau u otros), tener nociones básicas de programación PHP y Python (Deseable), ser muy proactivo y motivado para ir aprendiendo en el camino lo necesario para agregar valor a nuestros clientes. Conocimientos de estadística, nociones de modelos basados en ML y/o AI será deseable.
Experiencia en temas similares como trabajos universitarios o prácticas anteriores se valorará a la hora de postular, tal como estudios o cursos de Ingeniería, Computación, Data Science, Astronomía o Física, pero NO son requisito.
  • Deseable manejo de SQL, Excel, R, Tableau u otros para análisis/visualización de datos.
  • Deseable nociones básicas de programación en PHP y Python.
  • Conocimientos de estadística y nociones de modelos basados en ML y/o AI también deseable.

Condiciones:

  • Remunerada.
  • Trabajo remoto con posibilidad de presencialidad algunas horas a la semana.
  • Duración: 3 meses, posterior a eso se podrá incorporar al equipo como Ingeniero Analista Trainee.

APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Analista Business Intelligence (BI)
  • Brain Food
  • Santiago (Hybrid)
MySQL SQL Big Data SQL Server
Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.
Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.
Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

¿Cuáles serán tus funciones?

Queremos encontrar profesionales con conocimientos de reportería e inteligencia de datos y negocios, para apoyar en proyectos de consultoría de Advanced Analytics y Transformación Digital, mediante el desarrollo de indicadores, visualizaciones y reportes que agreguen valor tanto para el equipo interno, como para los clientes y sus requerimientos.
Serás parte del equipo de Estrategia de Brain Food y entre las principales funciones que se deberán desempeñar se encuentran:
  • Diseñar y crear modelos de datos para variados proyectos, áreas y rubros
  • Diseñar y optimizar indicadores, dashboards y reportes
  • Comprender las necesidades de los clientes y su negocio, para proponer proactivamente mejoras y desarrollos de visualizaciones
  • Capacidad de entender los requerimientos de clientes, interpretar sus necesidades y proponer soluciones de reportería acordes a estas.
  • Poder relacionarse con las personas del equipo de ésta y otras disciplinas para elaborar soluciones integrales para el cliente.
El cargo estará supervisado por un Jefe o Gerente de proyecto.

¿Cuáles son los requerimientos del cargo?

  • Experiencia en proyectos BI
  • Uso de herramientas de visualización, particularmente PowerBI.
  • Experiencia en publicar y compartir soluciones de BI en entornos cloud (particularmente en GCP)
  • Experiencia en acceso a distintas fuentes de datos (SQL Server, MySQL, API, Data Lake, etc.)
  • Experiencia desarrollando modelos de datos para usos analíticos y programación de ETLs
  • Experiencia laboral demostrable >= 2 años

Requisitos deseables pero no excluyentes

  • Conocimiento en SAP

Condiciones

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando con grandes empresas en proyectos desafiantes de alta complejidad.
  • Trabajar no es todo: Promovemos el descanso con 11 días libres adicionales al año.
  • Flexibilidad en la vestimenta.
  • En Chile, la asistencia a la oficina es voluntaria. Nos gusta vernos al menos una vez a la semana y contamos con una moderna y cómoda oficina en la comuna de Las Condes, Santiago. Ahí contarás con café y snacks a libre disposición. Si prefieres trabajar desde la casa bienvenido también, pero sujeto a exigencias de los clientes.
  • Para mejorar como profesionales contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Tenemos un plan de participación en el reparto de utilidades de la empresa después de un determinado tiempo.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, centrado en el apoyo entre equipos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
Beverages and snacks Brain Food offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2300 - 2400 Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python BigQuery Big Data
En esta posición, te unirás a un equipo de expertos en análisis de datos dentro de BC Tecnología, una consultora de TI que se especializa en la gestión de proyectos y servicios IT para diversos sectores, incluyendo servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en brindar soluciones efectivas y de alta calidad a nuestros clientes, utilizando metodologías ágiles para adaptarnos rápidamente a sus necesidades.
El equipo al que te incorporarás trabaja directamente con nuestros clientes del sector bancario para mejorar la toma de decisiones a través del análisis avanzado de datos. Como Data Analyst, tu rol será crucial para optimizar procesos de datos y proporcionar insights que ayuden a impulsar la eficiencia y alcanzar los objetivos estratégicos de nuestros clientes.

Funciones

  • Levantar, analizar y documentar procesos de datos para optimizar flujos y estructuras.
  • Gestionar y modelar datos en Google BigQuery.
  • Implementar funciones automáticas utilizando Google Cloud Functions.
  • Administrar almacenamiento de datos en Google Cloud Storage.
  • Utilizar DBT para transformación de datos y desarrollo de modelos analíticos.
  • Realizar consultas complejas mediante SQL Avanzado.
  • Automatizar tareas y análisis de datos con Python.
  • Trabajar con herramientas de control de versiones como GitLab, Bitbucket o GitHub.

Descripción

Buscamos un Data Analyst con las siguientes habilidades y experiencia:
  • Capacidad para levantar y optimizar procesos de datos.
  • Sólido conocimiento de Google Cloud Platform, especialmente en BigQuery, Cloud Functions y Cloud Storage.
  • Experiencia con DBT para modelos analíticos.
  • Dominio de SQL avanzado y lenguaje Python para automatización.
  • Habilidad para manejar herramientas de versionado de código.

Deseable

Sería ideal contar con experiencia previa en trabajos similares y tener habilidades en la utilización de otras plataformas de análisis de datos.

Beneficios

  • Contrato de proyecto de 4 meses con posibilidad de extensión.
  • Modalidad de trabajo 100% remoto.
  • Disponibilidad requerida a tiempo completo de lunes a viernes.
  • Beneficios adicionales como seguro complementario, Amipass de $4.500 por día laborado, convenios y actividades especiales.

APPLY VIA WEB
Gross salary $1600 - 2500 Full time
Data Engineer
  • Brain Food
  • Santiago (Hybrid)
MySQL SQL Oracle Python

Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.

Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.

Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

¿Cuáles serán tus funciones?

Serás parte del área de Data Engineering de Brain Food, desde la cual apoyarás a los clientes en distintos proyectos. Tus principales responsabilidades serán:

  • Diseñar una arquitectura de datos que cumpla la misión de ser puente entre la estrategia de negocios y la ejecución de la tecnología bajo los lineamientos de data governance de los clientes
  • Diseñar, mantener e implementar estructuras de almacenamiento de datos transaccionales y analíticos.
  • Extraer datos de diferentes fuentes y transferirlos a un entorno de almacén de datos.
  • Trabajar con grandes volúmenes de datos leídos de fuentes dispersas de información en la infraestructura tecnológica de una organización.
  • Procesar datos en ambientes de Big Data y posteriormente traducir los resultados emanantes en buenos diseños técnicos y datos consistentes
  • Revisar la integración consolidada de los datos, ya sea física o virtualmente, y describir cómo la interoperatividad de dichos datos capacitan para que múltiples sistemas se comuniquen

¿Cuáles son los requerimientos del cargo?

  • Experiencia demostrable con uno o mas servicios de GCP: BigQuery, BigTable, Cloud SQL, Cloud Storage; Cloud Composer, Data Fusion, Dataflow, Dataproc, Dataform; Docker-Kubernetes
  • Experiencia con una o mas de las siguientes bases de datos relacionales: sql server, oracle, postgres, db2, sqlite y/o mysql
  • Conocimientos avanzados de python y/o pyspark
  • Conocimientos de modelado de datos y experiencia en diseño e implementación de data warehouse, data lakes, data lakehouses
  • Experiencia trabajando bajo metodologías ágiles
  • Proficiente en ingles profesional

Requisitos deseables pero no excluyentes

  • Conocimientos y/o experiencia con herramientas de BI como Looker, Power BI, Tableau
  • Conocimientos y/o experiencia con servicios de procesamiento y almacenamiento de datos de Azure o AWS

¿Qué ofrecemos?

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando desde el primer día con grandes empresas en proyectos desafiantes de alta complejidad y muchas de ellas en Latinoamérica.
  • Trabajar no lo es todo: Para promover el descanso, ofrecemos 11 días libres adicionales al año.
  • Nunca se deja de aprender: Para mejorar como profesionales tenemos que estar en constante aprendizaje; contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Plan de participación en el reparto de utilidades después del primer año.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, con disposición, centrado en el apoyo entre equipos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
Beverages and snacks Brain Food offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1600 - 2500 Full time
Data Engineer
  • Brain Food
  • Ciudad de México (Hybrid)
MySQL SQL Oracle Python

Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.

Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.

Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

¿Cuáles serán tus funciones?

Serás parte del equipo de Data Engineers de Brain Food, liderado por el Head of Data Engineering y apoyado por un mentor que te será asignado para guiar y orientar tu desarrollo profesional. Como Data Engineer serás parte de distintos proyectos, para distintos clientes, y tendrás la responsabilidad de desarrollar proyectos de Big Data en los que deberás:

  • Diseñar una arquitectura de datos que cumpla la misión de ser puente entre la estrategia de negocios y la ejecución de la tecnología bajo los lineamientos de data governance de los clientes
  • Diseñar, mantener e implementar estructuras de almacenamiento de datos transaccionales y analíticos.
  • Extraer datos de diferentes fuentes y transferirlos a un entorno de almacén de datos.
  • Trabajar con grandes volúmenes de datos leídos de fuentes dispersas de información en la infraestructura tecnológica de una organización.
  • Procesar datos en ambientes de Big Data y posteriormente traducir los resultados emanantes en buenos diseños técnicos y datos consistentes
  • Revisar la integración consolidada de los datos, ya sea física o virtualmente, y describir cómo la interoperatividad de dichos datos capacitan para que múltiples sistemas se comuniquen

Los clientes en cuestión podrán variar de acuerdo al proyecto al que seas asignado

¿Cuáles son los requerimientos del cargo?

  • Experiencia demostrable con uno o mas servicios de GCP: BigQuery, BigTable, Cloud SQL, Cloud Storage; Cloud Composer, Data Fusion, Dataflow, Dataproc, Dataform; Docker-Kubernetes
  • Experiencia con una o mas de las siguientes bases de datos relacionales: sql server, oracle, postgres, db2, sqlite y/o mysql
  • Conocimientos avanzados de python y/o pyspark
  • Conocimientos de modelado de datos y experiencia en diseño e implementación de data warehouse, data lakes, data lakehouses
  • Experiencia trabajando bajo metodologías ágiles
  • Proficiente en ingles profesional

Requisitos deseables pero no excluyentes

  • Conocimientos y/o experiencia con herramientas de BI como Looker, Power BI, Tableau
  • Conocimientos y/o experiencia con servicios de procesamiento y almacenamiento de datos de Azure o AWS

¿Qué ofrecemos?

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando desde el primer día con grandes empresas en proyectos desafiantes de alta complejidad y muchas de ellas en Latinoamérica.
  • Trabajar no lo es todo: Para promover el descanso, ofrecemos 11 días libres adicionales al año.
  • La asistencia a la oficina es voluntaria. Nos gusta vernos al menos una vez a la semana, pero si prefieres trabajar desde la casa lo entendemos y aceptamos.
  • Nunca se deja de aprender: Para mejorar como profesionales tenemos que estar en constante aprendizaje; contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Plan de participación en el reparto de utilidades después del primer año.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, con disposición, centrado en el apoyo entre equipos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
Beverages and snacks Brain Food offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DBO PostgreSQL
  • Penta Vida
  • Santiago (Hybrid)
SQL PostgreSQL Linux

Penta Vida es una empresa del rubro financiero especialista en Pensiones. por lo que nuestro foco es poder otorgar la mejor experiencia de pensión. En este rol, el candidato apoyará en la administración y mantenimiento de bases de datos PostgreSQL, siendo un requisito indispensable el contar con experiencia previa en ello.

Funciones:

  • Responder requerimientos y solicitudes de clientes internos y/o externos, en forma oportuna.
  • Auditar objetos de bases de datos (tablas, notas, procedimientos de almacenamiento) para que se cumpla metodología de desarrollo y su correcto funcionamiento.
  • Realizar catalogación a producción relacionadas con base de datos.
  • Otorgar permisos a usuarios de desarrollo, test y producción del área de tecnología.
  • Realizar las mantenciones y actualizaciones de datos.
  • Realizar respaldos de base de datos y del servidor de archivos.
  • Velar por la continuidad operativa de los servidores de Base de Datos.
  • Monitorear procesos y bloqueos en Box de datos.

Requisitos:

  • Título de Ingeniero en Informática o carrera afín.
  • Deseable al menos 2 años de experiencia en cargos similares.
  • Indispensable experiencia en Administración Postgres-SQL, plataforma de respaldo, Linux.

Conocimientos adicionales

- No se requieren , el foco principalmente es en PostgreSQL.

Beneficios:

  • Seguro de Vida
  • Seguro Complementario de Salud
  • Bono de Colación
  • Tarde Libre en Cumpleaños
  • Gift card Fiestas Patrias y Navidad
  • Modalidad híbrida de trabajo

APPLY VIA WEB
$$$ Full time
Data Scientist
  • Decision Point LATAM
  • Santiago &nbsp Ciudad de México (In-office)
SQL Analytics Python Research

Decision Point offers an entrepreneurial environment and exposure to advanced analytics in the domain of sales and marketing. The team at Decision Point is very young, energetic, and highly skilled. Our team consists of talented business consultants, data scientists and engineers who are passionate about implementing analytics in real world business problems.

A career at Decision Point is rich in global experience and offers opportunities to build lasting relationships.

Job functions

  • Utilize advanced Python programming skills to design, develop, and deploy machine learning models and algorithms for various business use cases.
  • Develop Machine Learning techniques such as regression, classification, clustering, and deep learning
  • Ensure the availability, quality, and security of data used for analysis and modeling
  • Investigate and interpret data to identify actionable insights and opportunities for improvement
  • Work with cross-functional teams to implement data-driven solutions and drive business growth

Qualifications and requirements

  • Bachelor's degree in Computer Science, Engineering, Statistics, Mathematics, or related field. Master's degree preferred
  • Minimum of 1+ years of experience in a data science domain or related role.
  • Proficiency in Python for data manipulation, analysis, and model development.
  • Data Science libraries (such as NumPy, Pandas, Scikit-Learn, TensorFlow, or PyTorch)
  • Advanced SQL skills for data extraction, transformation, and analysis.
  • Lead efforts to expand business opportunities by identifying new avenues for data-driven insights and solutions.
  • Create Point of Views (POVs) and thought leadership content to showcase the company's expertise in data science and analytics.
  • A Tech lead to handle a team in completing the client deliverables
  • Research and devise innovative statistical models for data analysis
  • Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)
  • Take part in organizational development activities to take our organization to the next level
  • Strong knowledge in Statistics, ML is a must, and LLM/Gen AI is a plus

Desirable skills

  • Strong knowledge and practical experience in Machine Learning techniques and frameworks such as such as regression, classification, clustering, and deep learning.
  • Proven track record of successfully managing client relationships and delivering value-added solutions
  • Experience in building Reporting Dashboards in any of the BI Tools is good to have Power BI, Tableau, Looker
  • Familiarity with any could platform such as Azure, AWS, GPC is good to have

Benefits

  • Hybrid 4x1 in CL and 3x2 in MX from the fourth month (4 days a week in office and 1 from home, in Mexico 3 days a week in office and 2 from home)
  • Lunch and Healthy Snacks (CL)
  • Complementary Health Insurance (CL)
  • 2 Days free per quarter of the year
  • 5 extra days of vacation

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point LATAM pays or copays health insurance for employees.
Computer provided Decision Point LATAM provides a computer for your work.
Vacation over legal Decision Point LATAM gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point LATAM offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Senior Business Analyst
  • Decision Point LATAM
  • Santiago &nbsp Ciudad de México (In-office)
Business Analyst
Decision Point offers an entrepreneurial environment and exposure to advanced analytics in the domain of sales and marketing. The team at Decision Point is very young, energetic, and highly skilled. Our team consists of talented business consultants, data scientists and engineers who are passionate about implementing analytics in real world business problems.
A career at Decision Point is rich in global experience and offers opportunities to build lasting relationships.

Job functions

  • Manage large datasets using most recent technologies
  • Continuously improve processes with focus on automation and partner with different teams to develop system capability
  • Partner with project leads to understand business briefs and execute analysis
  • Develop and enhance statistical model with best-in-class modelling techniques
  • Evaluate new data sources, conduct research to assist in solving business problems
  • Multi country / companies’ interactions with Decision Point team and the Client is daily

Qualifications and requirements

  • 2+ years of experience
  • Communicate with clients to take briefs or present insights (need driven)
  • Deliver on informative and well-organized deliverables
  • Proactively seek opportunities to help team members by sharing knowledge and expanding skills
  • Excellent analytical skills and should be a problem solver
  • Strong interpersonal and communication skills for cross-functional teams
  • Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.

Desirable skills

  • Advanced English
  • Strong experience with Microsoft Office suite
  • Proficiency in data pull and preparation in SQL
  • Experience in exploratory Data Analysis for Modelling and Business Analysis using Python/Excel
  • Experience on FMCG and/or Retail
  • An eye for detail, quick learner and think out of the box
  • Multi country / companies’ interactions with Decision Point team and the Client is daily
  • Experience with Cloud Platforms is a plus

Benefits

  • Hybrid 4x1 in CL and 3x2 in MX from the fourth month (4 days a week in office and 1 from home, in Mexico 3 days a week in office and 2 from home)
  • Lunch and Healthy Snacks (CL)
  • Complementary Health Insurance (CL)
  • 2 Days free per quarter of the year
  • 5 extra days of vacation

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point LATAM pays or copays health insurance for employees.
Computer provided Decision Point LATAM provides a computer for your work.
Vacation over legal Decision Point LATAM gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point LATAM offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Analista de Negocios SAP TI Supply Chain Bilingüe
  • Adecco
  • Santiago (Hybrid)
Mulesoft English Business Analyst Tibco

Adecco TECH llega para posicionarse como un actor clave en el universo tecnológico, ofreciendo soluciones especializadas para diversos sectores como Telecomunicaciones, Informática, Banca, Retail, Minería, entre otros. Nos especializamos en gestionar talento TI, proporcionando profesionales altamente capacitados y expertos en sus campos. Desde la búsqueda y selección de los mejores ingenieros y desarrolladores hasta el outsourcing totalmente especializado, somos el recurso confiable que las empresas necesitan para mantenerse a la vanguardia en el ámbito tecnológico.

Nuestro Cliente del rubro de Consultoría y Servicios TI, busca a los mejores Profesionales para el rol "IT SAP Deployment Business Analyst - Supply Chain".

Funciones del cargo

Buscamos un Analista de Negocio SAP IT por Contrato - Supply Chain (Planning) para unirse al equipo Global EBS (Enterprise Business Solutions). Esta persona dirigirá el trabajo de desarrollo y despliegue relacionado con el diseño del proceso de Planificación de Suministros SAP con su contraparte miembro del equipo de negocio principal. Utilizamos una solución de planificación de la oferta y la demanda a largo plazo denominada SO99 de Toolsgroup, que forma parte integral de nuestra solución global de flujo de trabajo de planificación.

Responsabilidades:
· Participar activamente en la preparación, concepción, realización, Go Live e Hypercare del proyecto de implementación de SAP Global Template y localización del cliente en Chile.
· Demostrar la capacidad de planificar, dirigir y gestionar talleres/reuniones con nuestros clientes internos en esta región (con el apoyo del responsable de la cadena de suministro de EBS y otras PYME de SO99 en la región).
· Proporcionar una fuente creativa de ideas/soluciones
· Involucrarse y garantizar el conocimiento estándar del uso de la solución SAP para proporcionar soluciones cuando sea necesario y no estén soportadas por la Plantilla Global existente basada en escenarios de negocio.
· Apoyará la personalización/configuración de SO99 con integración en el entorno SAP del cliente mientras desarrolla requisitos complejos para soluciones de procesos o sistemas dentro del ámbito empresarial. Aprovechará las metodologías de recopilación de requisitos empresariales para identificar los requisitos empresariales, funcionales y no funcionales junto con su homólogo del equipo central empresarial.
· Mantener un conocimiento experto del producto utilizando un enfoque analítico para identificar oportunidades de mejora.
· Desarrollar y ejecutar planes y organizar el trabajo para garantizar la entrega eficaz de resultados que cumplan las expectativas de la empresa.

Requerimientos del cargo

· Más de siete años de experiencia reciente y exhaustiva en Previsión de Existencias, incluidos, entre otros, MRP, Planificación / Programación de la Producción y requisitos de datos maestros asociados.
· Experiencia en configuración de SAP (sistemas ECC y APO) y capacidad para considerar puntos de integración con aprovisionamiento, planificación, calidad y logística. Además, experiencia en integración con cualquier herramienta de planificación externa, es decir, FST/eFST. Muy preferible pero no crítico.
· Debe tener experiencia general con middleware de integración como XI/PI, TIBCO, Mulesoft. La experiencia en XI/PI es lo más importante.
· Se valorará la experiencia empresarial y técnica con Toolsgroup SO99+, aunque no es imprescindible.
· Dominio del español y del inglés a nivel comercial.
· Capacidad para viajar dentro de América del Sur en el rango de 25 - 40% del tiempo, así como trabajar a distancia con las partes interesadas en diversos mercados internacionales.

Opcionales

· Experiencia comercial y técnica en soluciones SO99 de Toolsgroup.
· Se valorará la experiencia en SAP IBP y/o SAP APO.
· Cierta experiencia en desarrollo (ABAP); como mínimo debe comprender el código ABAP de SAP.
· Alguna experiencia práctica con datos de planificación y fabricación de nivel 2 (datos maestros y transaccionales) en sistemas SAP utilizando SAP BODS, LSMW, BDC.

Condiciones

· A veces puede trabajar y tolerar horarios de trabajo algo dispares debido a la naturaleza global de los miembros de nuestro equipo de programas más amplios.
- Puede y está dispuesto a viajar hasta dos semanas seguidas en múltiples momentos a lo largo del compromiso (de cuatro a cinco eventos potenciales a lo largo del despliegue).

Contrato: Indefinido
Modalidad: 100% remoto

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Adecco provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Architect
  • Sophos Solutions
Marketing Scala Virtualization ETL

Sophos.GFT es una compañía global de tecnología especializada en la industria financiera, con operaciones en más de 14 países alrededor del mundo. Nuestra casa Matriz se encuentra en Colombia y contamos con filiales en 6 países. Contamos con experiencia de más de 15 años siendo aliados de nuestros clientes para ayudarlos en la transformación exitosa de sus negocios y trabajando con Partners de clase mundial para ello 🌎

Funciones del cargo

  • Data Architecture Design: Expertise in designing scalable and robust data architectures, particularly in cloud environments. Should have a strong understanding of modern data stack components, including data lakes, data warehouses, and real-time data pipelines.
  • Snowflake (Data Lake): Deep knowledge of Snowflake’s architecture, schema design, and performance tuning, as well as setting up and managing Snowflake as a central data repository.
  • Event-Driven Architecture: Understanding of event streaming technologies like Kafka, AWS Kinesis, or Google Pub/Sub, and the ability to transition a traditional architecture into an event-driven system.
  • Data Integration Best Practices: Experience in integrating multiple applications and data sources (e.g., marketing, CRM, payment systems) using tools like Fivetran, Stitch, or Talend.
  • ETL Processes: Strong knowledge of ETL/ELT pipeline design and development using modern tools such as dbt for transformation and orchestration platforms like Airflow or Prefect.
  • Cloud Ecosystems (AWS preferred): Expertise in cloud infrastructure, particularly AWS services like S3, Redshift, Lambda, and Glue for data processing and storage.

Requerimientos del cargo

  • Data Architecture Design: Expertise in designing scalable and robust data architectures, particularly in cloud environments. Should have a strong understanding of modern data stack components, including data lakes, data warehouses, and real-time data pipelines.
  • Snowflake (Data Lake): Deep knowledge of Snowflake’s architecture, schema design, and performance tuning, as well as setting up and managing Snowflake as a central data repository.
  • Event-Driven Architecture: Understanding of event streaming technologies like Kafka, AWS Kinesis, or Google Pub/Sub, and the ability to transition a traditional architecture into an event-driven system.
  • Data Integration Best Practices: Experience in integrating multiple applications and data sources (e.g., marketing, CRM, payment systems) using tools like Fivetran, Stitch, or Talend.
  • ETL Processes: Strong knowledge of ETL/ELT pipeline design and development using modern tools such as dbt for transformation and orchestration platforms like Airflow or Prefect.
  • Cloud Ecosystems (AWS preferred): Expertise in cloud infrastructure, particularly AWS services like S3, Redshift, Lambda, and Glue for data processing and storage.

Opcionales

  • 8+ years of experience in designing and leading data architectures, ideally in complex multi-system environments.
  • Proven track record of leading transitions to modern, event-driven data infrastructures.

Condiciones

🌟 Invest in Your Well-being and Professional Development with Us! 🌟

We are excited to announce that, as part of our commitment to the growth and satisfaction of our team, we offer exceptional benefits:

Health Insurance: Take care of your health with our comprehensive health insurance plan, ensuring access to quality medical care.

📈 Career Plan: Boost your professional journey with our development program designed to help you achieve your goals and enhance your skills.

🎁 Redeemable Points: Enjoy a variety of rewards through our redeemable points system at various retailers. Your efforts deserve to be rewarded!

📚 Learning Academy: Access a learning platform that allows you to continue growing and developing in various areas.

In our company, your well-being and development are a priority. Join us and be part of a team that invests in its people!

Health coverage Sophos Solutions pays or copays health insurance for employees.
Computer provided Sophos Solutions provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Scientist Sr
  • CMPC
  • Santiago (Hybrid)
SQL Python Virtualization Docker

En CMPC, buscamos a un profesional responsable de dirigir el desarrollo de soluciones de datos complejas, aplicar técnicas avanzadas de aprendizaje automático y orientar a los científicos de datos junior para garantizar que el equipo entregue soluciones innovadoras y de alta calidad basadas en datos.
Encargado de evaluar y seleccionar algoritmos avanzados de aprendizaje automático, supervisar el despliegue de modelos, realizar análisis de datos avanzados y brindar orientación y tutoría a los miembros junior del equipo.
Responsable de avanzar las capacidades de ciencia de datos de la empresa, impulsa la innovación y contribuye a la dirección estratégica de las iniciativas de datos de la organización.

Funciones del cargo

  • Interactuar con stakeholders internos para explorar y entender datos de proceso/negocio para traducir los problemas empresariales en casos de uso end-to-end, manteniendo una comunicación constante con Jefes de Unidad y Jefes de área en las plantas.
  • Abogar por iniciativas de ciencia de datos dentro de la empresa y construir relaciones con partes interesadas clave.
  • Liderar el diseño e implementación de soluciones complejas de análisis y modelado de datos.
  • Colaborar con los dueños de productos para tomar los requisitos de DS y evaluar los componentes de DS en las hojas de ruta.
  • Trabaja codo a codo con los Business Analysts para definir y dar seguimiento a los cálculos de captura de las soluciones
  • Contribuir a la construcción de estrategias basadas en datos y recomendar soluciones a problemas comerciales.
  • Liderar discusiones técnicas y brindar experiencia a equipos multifuncionales.
  • Lidera equipos interdisciplinarios en la construcción, prueba industrial y puesta en producción de soluciones basadas en modelos predictivos de machine learning y/o inteligencia artificial.
  • Asesorar y guiar a científicos de datos junior.
  • Lidera proyectos de alta complejidad en sites de alto impacto en la Organización.

Requerimientos del cargo

Formación: Ingeniería matemática, informática, industrial, estadística u similar, de preferencia con postgrado Magíster o Doctorado en Matemáticas, Estadística o Informática

Conocimiento específico:

  • Programación en lenguaje Python, específicamente en tecnologías vinculadas a machine learning: librerías del stack Python, como numpy, pandas, scikit-learn, matplotlib, seaborn (Excluyente)
  • Conocimiento de lenguaje de consultas a base de datos (SQL) (Excluyente)
  • Familiaridad con servicios cloud orientados al desarrollo de modelos de Machine Learning, de preferencia Google Cloud Platform (GCP)
  • Deseable control de Versiones con Git
  • Deseable manejo de contenedores (Docker, GAR, etc)
  • Deseable dominio de frameworks de Deep Learning como Tensorflow, Keras o PyTorch

Experiencia: Poseer 5 o más años de experiencia liderando proyectos de ciencias de datos.

Conducir: Deseable Licencia de Conducir Clase B al día

Idioma: Inglés Técnico nivel Intermedio

Condiciones

  • Contrato: Indefinido
  • Modalidad de trabajo: Hibrida
  • Ubicación: Santiago. Disponibilidad para realizar viajes a plantas de todo chile según necesidad, y Brasil.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided CMPC provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks CMPC offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Sophos Solutions
Web server Continuous Integration Marketing Virtualization

Sophos.GFT es una compañía global de tecnología especializada en la industria financiera, con operaciones en más de 14 países alrededor del mundo. Nuestra casa Matriz se encuentra en Colombia y contamos con filiales en 6 países. Contamos con experiencia de más de 15 años siendo aliados de nuestros clientes para ayudarlos en la transformación exitosa de sus negocios y trabajando con Partners de clase mundial para ello 🌎

Funciones del cargo

  • Data Pipeline Development: Proficiency in building and maintaining scalable data pipelines using tools such as Fivetran, Stitch, or Kafka Connect for ingesting data from multiple sources into a data lake.
  • Data Lake Management (Snowflake): Strong experience with Snowflake, including configuring data ingestion, partitioning data, and using Time Travel and Zero-Copy Cloning features for efficient data management.
  • ETL/ELT Pipelines: Solid understanding of ETL/ELT processes, particularly in cloud environments. Should be familiar with dbt for transforming data after ingestion, and orchestration tools like Apache Airflow or Dagster to automate workflows.
  • Integration Platforms (Zapier, Integromat): Knowledge of integration tools like Zapier or Integromat for automating workflows between various SaaS tools (e.g., ServiceTitan, marketing platforms, and payment systems).
  • Cloud Expertise (AWS preferred): Deep knowledge of AWS services like S3 (data storage), Glue (ETL), Athena (data querying), and Redshift (data warehousing). Experience in securing and optimizing cloud-based data infrastructure.
  • Version Control & CI/CD: Familiarity with tools like Git, GitHub, or Bitbucket for version control, and CI/CD pipelines (e.g., Jenkins, GitLab CI) for deploying and maintaining data pipelines.

Requerimientos del cargo

  • 5+ years as a Data Engineer, with a proven background in building end-to-end data pipelines.
  • Experience with integrating large-scale enterprise systems into a Snowflake-based data lake.
  • ETL/ELT Pipelines: Solid understanding of ETL/ELT processes, particularly in cloud environments. Should be familiar with dbt for transforming data after ingestion, and orchestration tools like Apache Airflow or Dagster to automate workflows.
  • Integration Platforms (Zapier, Integromat): Knowledge of integration tools like Zapier or Integromat for automating workflows between various SaaS tools (e.g., ServiceTitan, marketing platforms, and payment systems).
  • Cloud Expertise (AWS preferred): Deep knowledge of AWS services like S3 (data storage), Glue (ETL), Athena (data querying), and Redshift (data warehousing). Experience in securing and optimizing cloud-based data infrastructure.
  • Version Control & CI/CD: Familiarity with tools like Git, GitHub, or Bitbucket for version control, and CI/CD pipelines (e.g., Jenkins, GitLab CI) for deploying and maintaining data pipelines.

Opcionales

Python & Scripting: Knowledge of Python for automating workflows, data cleaning, or creating ad-hoc reports.

Collaboration Tools: Experience working in collaborative environments using tools like Jira, Confluence, or Trello for managing tasks and documentation.

Agile Methodology: Familiarity with working in Agile or Scrum environments, managing sprints, and adapting quickly to changing requirements.

Communication Skills: Ability to clearly communicate technical concepts to non-technical stakeholders and collaborate with cross-functional teams.

Condiciones

🌟 Invest in Your Well-being and Professional Development with Us! 🌟

We are excited to announce that, as part of our commitment to the growth and satisfaction of our team, we offer exceptional benefits:

Health Insurance: Take care of your health with our comprehensive health insurance plan, ensuring access to quality medical care.

📈 Career Plan: Boost your professional journey with our development program designed to help you achieve your goals and enhance your skills.

🎁 Redeemable Points: Enjoy a variety of rewards through our redeemable points system at various retailers. Your efforts deserve to be rewarded!

📚 Learning Academy: Access a learning platform that allows you to continue growing and developing in various areas.

In our company, your well-being and development are a priority. Join us and be part of a team that invests in its people!

Health coverage Sophos Solutions pays or copays health insurance for employees.
Computer provided Sophos Solutions provides a computer for your work.
APPLY VIA WEB
Gross salary $1000 - 1200 Full time
Desarrollador ETL
  • Sophos Solutions
  • Bogotá (Hybrid)
SQL ETL Scrum SQL Server

Acerca del empleo

Sophos.GFT es una compañía global de soluciones tecnológicas, con operaciones en 14 países alrededor del mundo. Nuestra casa matriz se encuentra en Colombia y contamos con filiales en 6 países incluyendo Colombia, Estados Unidos, México, India, Chile y Panamá. Somos más de 1.500 personas expertas en tecnología, liderando proyectos que están revolucionando la industria y transformando con éxito las instituciones financieras más importantes 🌎

Funciones del cargo

Responsable de construir, mantener y optimizar las (ETLs) que permiten un flujo y transformación de datos confiable dentro de una organización. Diseñar, desarrollar e implementar procesos ETL complejos para extraer, transformar y cargar datos de múltiples fuentes en almacenes de datos, data lakes y otras soluciones de almacenamiento de datos. Además, automatizan y monitorean los flujos de ETL para garantizar la integridad, calidad y disponibilidad de los datos. Soporte a usuarios de las aplicaciones.

Requerimientos del cargo

Obligatorio:

  • Ser profesional y contar con su tarjeta.
  • Mínimo 2 Años y medio de experiencia.
  • Aceptar Modalidad Hibrida.

Skills Obligatorios

  • Conocimientos en Datastage, PL/sql, ETL, SQL Server.

Skills Deseables

  • Conocimientos Metodologías Agiles, Scrum, SSIS (SQL Server Integration Services), Reporting Services, IIS (Internet Information Services).

Condiciones

  • Contrato a término indefinido con fines de semana libres, trabajo remoto salario justo de acuerdo con tu perfil en el mercado y beneficios extralegales.
  • Acceso a nuestra propia plataforma de aprendizaje, para que te certifiques en tecnologías o habilidades necesarias para tu crecimiento.
  • Carta de beneficios para que elijas los que más te gusten entre las opciones según tus puntos (ej: seguro de mascotas, puntos para restaurantes, tarjetas de regalo, plataforma fit, entre muchos otros).

APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Powerbi and Powerapp Lead
  • Sophos Solutions
Excel SQL Power BI Azure

Sophos Solutions is a global technology company specialized in the financial industry, with operations in more than 14 countries around the world. Our headquarters are located in Colombia and we have subsidiaries in 6 countries. With more than 15 years of experience, we are allied with our clients to help them in the successful transformation of their businesses, working with world-class partners.

Primary Responsibilities

  • Proactively own and manage the PowerBI/PowerApp pipeline of projects.
  • Design a clean and organized PowerBI workspace setup with relevant roles and responsibilities.
  • Provide governance on PowerBI and PowerApp usage.
  • Design a training and awareness roadmap for employees to exploit PowerBI with the right guardrails.
  • Maintain all existing and future PowerBI/PowerApp reports/workflows.
  • Manage a team of external PowerBI and PowerApp experts to help build and deploy finalized reports.
  • Ensure reports are validated and aesthetically clean in design.
  • Manage the relationship with external PowerBI and PowerApp vendors.
  • Understand data sets and become an expert in them.
  • Liaise with business departments to develop business and technical requirements for PowerBI reports.
  • Communicate business needs to external developers.
  • Develop testing plans to ensure thorough testing before business handoff.
  • Prepare documentation of process procedures and liaise between business users.
  • Assist with change management and ongoing training for business users.
  • Efficiently manage all PowerBI development projects and timelines.
  • Research project topics related to PowerBI functionality.
  • Source, analyze, and draw conclusions from key data sets.
  • Work with IT to set up new PBI functionality and resolve issues.

Required Skills and Qualifications

School and Prior Work Experience:
  • Bachelor’s degree in Business, Accounting, Finance, Information Systems, Computer Science, Statistics, or Mathematics.
  • Minimum 5 years of experience in a Business Intelligence or Data consultancy role.
Technical Skills:
  • Expert in Power BI and Power BI Report Builder (paginated reports), including DAX and Power Querying.
  • Strong Data Modeling skills.
  • Knowledgeable in Power BI Service functionality including workspaces, apps, usage metrics, recurring refreshes, dataset access, and row-level security (RLS).
  • Experience with finance data sets and knowledge of common financial data modeling is an advantage.
  • At least 3 years of SQL experience.
  • Exposure to cloud technologies, preferably Microsoft Azure.
  • Proficient in Excel.
  • Exposure to other BI tools (Tableau, Qlik, Domo, etc.) is an advantage.
  • Strong Data Management experience, particularly in understanding data quality.
  • End-to-end knowledge of data warehouse and reporting processes.
General Skills and Qualifications:
  • Demonstrate a high degree of critical and strategic thinking.
  • Ability to work through complex issues and present clear options for remediation.
  • Understanding of Private Equity business processes preferred.
  • Ability to learn quickly and take initiative to learn independently.
  • Ability to work within a team as well as perform tasks independently.
  • Excellent project management skills with the ability to manage competing priorities.
  • Strong verbal and written communication skills, particularly in data storytelling.
  • Ability to work in a fast-paced environment.

Desirable Skills and Experience

NA

Benefits

  • Indefinite-term contract with weekends off, remote work, and fair salary based on your market profile.
  • Access to our own learning platform for certification in necessary technologies or skills for your growth.
  • Benefit letter to choose from various options based on your points (e.g., pet insurance, restaurant points, gift cards, fitness platform, among many others).

Health coverage Sophos Solutions pays or copays health insurance for employees.
Computer provided Sophos Solutions provides a computer for your work.
APPLY VIA WEB
$1500 - 2500 Full time
Ingeniero de Datos (área TI)
  • Lisit
  • Santiago (Hybrid)
SQL Python BigQuery Git

🌍 ¡Únete a Lisit, líderes en consultoría digital!

En Lisit nos dedicamos a transformar empresas a través de soluciones digitales innovadoras. Nuestro enfoque combina tecnología de vanguardia con un equipo altamente calificado, garantizando resultados excepcionales para nuestros clientes. Con presencia en múltiples países y un equipo multicultural, apostamos por la diversidad, colaboración y excelencia en todo lo que hacemos.

Este cargo estará enfocado en el área de "análisis de datos empresariales" o "inteligencia de negocio" y colaborará en proyectos de "automatización de reportes para mejorar la toma de decisiones" o "optimización de datos para campañas de marketing". Buscamos a alguien que no solo domine las herramientas y técnicas de manejo de datos, sino que también contribuya activamente al éxito de los proyectos en los que trabajará.

Funciones del cargo

  • Desarrollo y mantenimiento de pipelines de datos

Crear, probar y mantener pipelines que permitan la transferencia y transformación de grandes volúmenes de datos en la nube, asegurando la integridad y eficiencia del flujo de datos.

  • Optimización de la infraestructura de datos

Realizar ajustes en la arquitectura de datos actual para mejorar el rendimiento y adecuación de los sistemas, alineándose con las necesidades del negocio y las mejores prácticas de desarrollo.

  • Implementación de soluciones en IA

Colaborar en la exploración e implementación de soluciones de inteligencia artificial básicas, bajo la supervisión del arquitecto de datos, para agregar valor en el análisis y procesamiento de datos.

  • Evaluación y prueba de nuevas tecnologías

Investigar, probar y documentar nuevas tecnologías y herramientas para mejorar la gestión y el análisis de datos, participando activamente en la innovación dentro del área.

  • Autonomía en la gestión de tareas

Organizar y gestionar sus actividades de manera autónoma, garantizando el cumplimiento de los objetivos y la entrega oportuna de resultados.

Requerimientos del cargo escencial

Habilidades técnicas

  • Experiencia en proyectos de datos en la nube, preferentemente en Google Cloud Platform (GCP).
  • BigQuery, Cloud Functions, Python, SQL, Git, Experiencia en proyectos de datos, Modelamiento de datos, Fundamentos Cloud.

Competencias

  • Entusiasmo y ganas de aprender.
  • Administración del tiempo personal.
  • Proactividad.
  • Interés en inteligencia artificial, idealmente que haya incursionado en este ámbito

Opcionales

  • Dataproc, Dataflow, Pipelines CI/CD, GitLab y Terraform, Experiencia en proyectos de datos on-premise, Experiencia con integraciones, Power BI.

Condiciones

Se necesitará que asista presencialmente dos días a la semana a la oficina ubicada en Santiago Centro.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Scientist( Mid)
  • Ensitech
SQL Python Virtualization Hadoop

Join #Ensiteam!

We are a company focused on custom software development and have been in the market for over 19 years. Ensitech is dedicated to finding highly specialized talent to work with large companies in the United States, Europe, and Canada.

Each of our collaborators works with different teams and colleagues around the world, in the design and commercialization of software. We look forward to having you as part of our team as a Backend Lead software engineer.

Responsibilities

  • Customer Behavior Analysis: Analyze customer transaction patterns, spending habits, and behavior to identify trends and anomalies.
  • Risk Detection: Develop models to detect potential risks such as fraud, defaults, or other types of anomalies that affect the business.
  • Graph Analytics: Study and analyze data represented in graphs (e.g., network analysis, path analysis) to uncover behavioral patterns and detect unusual activities.
  • Anomaly Detection: Design and implement algorithms for anomaly detection, focusing on both financial risk and customer experience anomalies.
  • Collaboration with Stakeholders: Collaborate with risk, marketing, and product teams to understand data needs and deliver actionable insights.
  • Data Exploration & Reporting: Use data visualization tools to present findings and drive data-driven decision-making within the organization.
  • Predictive Modeling: Build and refine predictive models using machine learning techniques to forecast customer behavior and assess credit risk.
  • Data Management: Work with large datasets, ensuring data quality, integrity, and accessibility for analysis.
  • Analytical Thinking: Strong problem-solving skills with the ability to think critically and work with complex datasets.
  • Communication Skills: Excellent verbal and written communication skills, with the ability to present technical concepts to non-technical stakeholders.

Requeriments:

  • Education: Bachelor’s degree in Data Science, Computer Science, Statistics, Mathematics, or a related field.
  • Experience: 2-3 years of experience in data analysis, preferably in financial services or risk management.
  • Programming Skills: Python or R for data analysis + libraries such as pandas, NumPy, sci-kit-learn, or similar.
  • Graph Analysis: Experience analyzing data represented in graphs, including graph-based anomaly detection techniques (e.g., network analysis, graph algorithms).
  • Anomaly Detection: Familiarity with techniques for identifying anomalies in large datasets.
  • Advanced Graph Algorithms: Experience with specialized tools for graph analysis such as Neo4j, or similar.
  • Data Visualization: Strong skills in data visualization using tools like Matplotlib, Seaborn, Plotly, or similar.
  • Machine Learning Techniques: Knowledge of machine learning techniques for risk modeling and fraud detection (e.g., unsupervised learning, clustering techniques).
  • Cloud Platforms: Experience with cloud-based data environments like AWS, GCP, or Azure.
  • Big Data Tools: Familiarity with big data tools and platforms such as Hadoop, Spark, or similar technologies.
  • Financial Domain Expertise: Previous experience in the financial services industry, specifically in credit risk analysis or fraud detection.
  • SQL Proficiency: Strong experience working with databases and writing complex SQL queries for data extraction.

Benefits:

  • Salary adapted to your needs.
  • Vacations.
  • Certifications.
  • 100% remote opportunity.
  • Bonuses .

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Ensitech provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Ensitech gives you paid vacations over the legal minimum.
Beverages and snacks Ensitech offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1500 - 1600 Full time
Especialista de Procesos
  • Kibernum
  • Bogotá (In-office)
Lean Excel SQL Analytics

Kibernum es una compañía chilena con 30 años de experiencia, orientada a crear e implementar servicios IT de Excelencia, con presencia en Chile y Colombia. Contamos con una vasta experiencia implementando servicios IT en banca, retail, salud, gobierno, seguros, educación y telecomunicaciones.

Codiseñamos con nuestros clientes soluciones con un alto grado de involucramiento y compromiso con el negocio.

Funciones del cargo

Implementar soluciones de capacidad analítica para el mejoramiento y automatización de procesos a través de metodología Lean, BPM y minería de datos, analizando procesos, realizando diagnósticos de mejora e implementando soluciones focalizadas con el objetivo de apoyar el marco de implementación de eficiencias, efectividad, mitigación de riesgo.

Requerimientos del cargo

  • Profesional en Ingeniería de Sistemas, Ingeniera de Software, adm. de empresas, matematicas, estadistica, Ingeniera industrial, o carreras afines, con posgrado relacionado en innovación, procesos, analítica de datos y/o transformación digital.
  • Mínimo tres (3) años de experiencia en:
  • Mapeo, diseño e implementación de procesos .
  • Experiencia con Python.
  • Experiencia con Excel, Access, Bizagi, SQL.
  • Contar con certificación Lean, gestión de proyectos o gestión de procesos.

Condiciones

Condiciones laborales

  • Tipo de Trabajo: Presencial - Bogotá
  • Tipo de Contrato: Indefinido
  • Horario: Lunes a viernes 8am - 6pm o 7:30am - 5:30pm.
  • Salario: $6.850.000
  • Excelentes beneficios extralegales.

APPLY VIA WEB
$$$ Full time
Business Analyst Senior
  • Sophos Solutions
  • Medellín (Hybrid)
Product Owner English Business Analyst Software

Acerca del empleo

Sophos.GFT es una compañía global de soluciones tecnológicas ,, con operaciones en 14 países alrededor del mundo. Nuestra casa matriz se encuentra en Colombia y contamos con filiales en 6 países incluyendo Colombia, Estados Unidos, México, India, Chile y Panamá. Somos más de 1.500 personas expertas en tecnología, liderando proyectos que están revolucionando la industria y transformando con éxito las instituciones financieras más importantes 🌎

Tendrás la oportunidad de

  • Definir en conjunto con el Project Manager los objetivos y alcance del proyecto..
  • Elaborar el Roadmap en conjunto con el Project Manager y demás equipo del proyecto.
  • Definir funcionalidades del producto.
  • Diseñar la estrategia de adopción.
  • Diseñar plan de capacitación y formación para los demás integrantes del equipo.

¿Que requerimos?

  • Profesional en carreras afines a ingeniería de sistemas, software, o afines a TI.
  • Se requiere experiencia de al menos 8 años en TI y proyectos de software, y al menos 4 años en rol de Business Analyst o Product Owner.
  • Experiencia en el diseño, planificación, ejecución y seguimiento del producto (depósitos bancarios, cuentas de ahorro, crédito y corriente), según el negocio.
  • Cumplimiento de objetivos del proyecto enfocado en el producto, manejo de metodologías de trabajo ágil y trabajo en equipo.
  • Medición de tiempos en el producto para toma de decisiones.
  • Inglés B1+ (Conversacional)

Es un plus sí

  • Implementación de Core Bancario y manejo de cuentas contables con regulación Colombiana.
  • Conocimiento en norma ISO 20022 (mensajería).

Nosotros te ofrecemos 💙

🏥 Medicina Prepagada: Nos preocupamos por tu salud. Con nuestra medicina prepagada, tendrás acceso a servicios médicos de calidad.

🎁 Puntos para Redimir en Diferentes Comercios: Valoramos tu dedicación. Con nuestro programa de puntos, podrás disfrutar de recompensas en una variedad de comercios, desde tecnología hasta restaurantes, porque creemos que tu esfuerzo merece ser reconocido.

📚 Academia de Aprendizaje: La formación continua es clave. Nuestra academia te brindará acceso a cursos y capacitaciones, permitiéndote desarrollar nuevas habilidades y crecer profesionalmente en un ambiente de apoyo.

📄 Contrato a Término Indefinido: La estabilidad es fundamental. Ofrecemos contratos a término indefinido para que puedas enfocarte en tus metas a largo plazo sin preocupaciones.

APPLY VIA WEB
$$$ Full time
Data Scientist
  • Brain Food
  • Bogotá &nbsp Ciudad de México &nbsp Lima (Hybrid)
SQL Analytics Python ETL
Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.
Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.
Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

Funciones del cargo

Estará a cargo de las siguientes funciones:
  • Análisis de Datos: recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, API, entre otros. Aplicar técnicas de análisis exploratorio para comprender la estructura y características de los datos
  • Modelado Predictivo: desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimización de Algoritmos: optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Visualización de datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicación: comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Desarrollo Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente
  • Participar en proyectos asegurando la calidad de los entregables y el cumplimiento de plazos establecidos
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas
  • · Apoyar en el desarrollo de propuestas internas para potenciales clientes, aportando con los conocimientos adquiridos en proyectos

Requerimientos del cargo

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o conocimientos demostrables en analítica avanzada
  • Experiencia laboral de 1 a 2 años
  • Manejo de Python, SQL y Git
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Deseable

Experiencia con:
  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento de forecasting y costumer analytics
  • Conocimiento en optimización

¿Qué te ofrecemos?

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando desde el primer día con grandes empresas en proyectos desafiantes de alta complejidad y muchas de ellas en Latinoamérica.
  • Flexibilidad en la vestimenta.
  • Flexibilidad en la asistencia a la oficina.
  • Para mejorar como profesionales contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Tenemos un plan de participación en el reparto de utilidades de la empresa después de un determinado tiempo.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, centrado en el apoyo entre equipos.

Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Head of Data
  • Apiux Tecnología
  • Santiago (In-office)
ETL Sales Artificial Intelligence AI

Apiux es una empresa de tecnología que apoya a las organizaciones en su proceso de transformación digital, modernización e implementaciones. Nuestro foco busca siempre el mejoramiento de negocio y procesos empresariales de la mano de nuestro equipo y partners.

Ser un Apiux, o un Yellower, es tener un espíritu ágil, flexible, inclusivo y multicultural. Creemos en la diversidad y tenemos un equipo compuesto por más de 10 nacionalidades.

A lentamos una mentalidad ágil y experimental. Queremos que cada Yellower desarrolle su talento, evolucione y crezca con nosotros.

Responsabilidades:

  • Liderar y gestionar proyectos de Data Science, Engineering y AI desde la conceptualización hasta la entrega, asegurando la calidad y puntualidad en cada fase del proyecto.
  • Desarrollar y presentar propuestas técnicas y comerciales en el ámbito de pre-sales para soluciones de DATA/AI.
  • Diseñar y supervisar arquitecturas de data robustas, incluyendo soluciones de ETL, ELT, y Datalake, garantizando la integridad y disponibilidad de los datos.
  • Implementar y gestionar herramientas de visualización de datos y soluciones de análisis profundo para extraer insights valiosos.
  • Coordinar con equipos multidisciplinarios para integrar soluciones de inteligencia artificial efectivas y eficientes.
  • Asegurar la correcta ejecución y seguimiento de los proyectos de DATA/AI, cumpliendo con los estándares de calidad y los plazos establecidos.
  • Desarrollar y mantener relaciones sólidas con clientes y stakeholders, comprendiendo sus necesidades y proporcionando soluciones técnicas adecuadas.
  • Proveer liderazgo técnico y mentoría al equipo de Data Science, fomentando un ambiente de trabajo colaborativo y de mejora continua.
  • Mantenerse actualizado sobre las tendencias y avances en tecnologías de Data Science y AI, aplicando nuevas técnicas y herramientas que puedan mejorar nuestras soluciones.

Experiencia:

  • Experiencia mínima de 5 años en pre-sales de soluciones de DATA/AI.
  • Amplia experiencia en proyectos de arquitectura de data, incluyendo soluciones de ETL, ELT, y Datalake.
  • Sólida experiencia en el uso de visualizadores de data y herramientas de análisis profundo.
  • Experiencia comprobada en la implementación y gestión de soluciones de inteligencia artificial.
  • Experiencia demostrable en la ejecución exitosa de proyectos de DATA/AI.
  • Habilidades de liderazgo y capacidad para dirigir equipos técnicos.
  • Excelentes habilidades analíticas y de resolución de problemas.
  • Título universitario en Ciencias de la Computación, Ingeniería, Matemáticas, o campo relacionado; se valorarán títulos de postgrado o certificaciones adicionales en áreas afines.

Inglés

  • Nivel de inglés avanzado (deseable, no excluyente)
  • Seguro complementario de salud, seguro dental y seguro de vida.
  • Contrato de 3 meses plazo fijo, luego indefinido.
  • Bono anual de 400 USD para desarrollo y aprendizaje.
  • Día de tu cumpleaños libre.
  • Bonos por nacimiento, matrimonio y referidos.
  • Aguinaldos en diciembre y septiembre.
  • Happy Points, un sistema de puntos que puedes canjear por días libres.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Apiux Tecnología pays or copays life insurance for employees.
Health coverage Apiux Tecnología pays or copays health insurance for employees.
Dental insurance Apiux Tecnología pays or copays dental insurance for employees.
Computer provided Apiux Tecnología provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Prof. Redes de Acceso de F. óptica Gpon, Plaza Oeste, Diurna
  • Duoc UC
  • Santiago (In-office)

Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia que, como parte de la misión evangelizadora de la Iglesia, está al servicio del desarrollo de la sociedad por medio de la formación de personas, técnicos y profesionales, capaces de desplegar un proyecto de vida integral con una impronta ético/cristiana. Cuenta con la máxima acreditación institucional, posee 9 escuelas y más de 70 carreras, presentes en 19 sedes de la Región Metropolitana, Valparaíso, Biobío, La Araucanía y Los Lagos.

Funciones del cargo

Duoc UC Sede Plaza Oeste, Escuela de Informática y Telecomunicaciones requiere contratar docentes para las asignaturas de Redes de acceso de Fibra Óptica con tecnología GPON, Portafolio de título con disponibilidad en Jornada diurna que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requerimientos del cargo

Es requisito contar con:

  • Formación: Ingeniero en Electrónica, Ingeniero en Telecomunicaciones, Ingeniero en Conectividad y Redes
  • Experiencia: 5 años de experiencia en proyectos y Redes de Acceso, cobre y fibra óptica.
  • Disponibilidad: Martes de 13:41hrs a 17:20hrs /Miércoles de 14:31hrs a 18:10hrs.

Para postular es indispensable que pueda revisar previamente el siguiente video y documento, para lo que se recomienda:

1.- Video del Proyecto educativo: https://www.youtube.com/watch?v=FVfUAzP0OWY

2.- Documento de los valores institucionales https://s.openagora.net/clientes/duoc/custom/2022_05/fundamentos_duoc_uc_mayo_2022.pdf

APPLY VIA WEB
Gross salary $1300 - 2000 Full time
Analista de E-commerce
  • avalancha
Excel Google Ads Analytics Trafficker

Como Analista de Datos Ecommerce, serás parte clave de un equipo que trabaja para mejorar continuamente las estrategias de ecommerce de nuestros clientes. Tu principal desafío será transformar grandes volúmenes de datos en insights claros y accionables, ayudando a nuestros clientes a optimizar su inversión en marketing digital y maximizar su rendimiento. Colaborarás estrechamente con los líderes de estrategia para que las decisiones se basen en datos, asegurando que nuestras propuestas se alineen con los objetivos comerciales.

Funciones del cargo

Análisis de Datos:

  • Analizar datos de rendimiento de campañas publicitarias en Google Ads, Meta Ads, y otras plataformas de medios digitales.
  • Crear informes y dashboards personalizados utilizando herramientas como Excel, Google Looker Studio y Power BI.
  • Monitorear y evaluar el comportamiento del usuario en sitios de ecommerce, enfocándose en mejorar la conversión y el ticket promedio.

Colaboración en Estrategias Basadas en Datos:

  • Colaborar con el equipo de liderazgo de la cuenta en la propuesta de estrategias basadas en los insights obtenidos de los análisis de datos.
  • Proveer recomendaciones basadas en datos para la optimización de campañas digitales y funnels de conversión, apoyando las decisiones estratégicas sin asumir la responsabilidad exclusiva de la dirección de la cuenta.
  • Asegurar que las recomendaciones se implementen de manera eficaz, trabajando de cerca con los equipos de marketing, crm, contenidos y desarrollo.

Presentación de Resultados a Clientes:

  • Presentar informes a los clientes, explicando los resultados de las campañas y las recomendaciones estratégicas derivadas de los datos.
  • Mantener una participación activa en reuniones clave con los clientes para discutir los avances.

Optimización Continua:

  • Realizar pruebas A/B y otros experimentos para mejorar continuamente el rendimiento de las campañas.
  • Proponer estrategias de segmentación, contenidos, activaciones en función de los resultados obtenidos.

Requerimientos del cargo

  • Experiencia en ecommerce: Al menos 2 años trabajando en proyectos de ecommerce, gestionando y analizando datos relacionados con el rendimiento de tiendas online, conversiones, tráfico, y optimización de campañas digitales.
  • Excel avanzado: Capacidad para manejar grandes volúmenes de datos, realizar análisis complejos, y crear tablas dinámicas y gráficos.
  • Google Looker Studio: Experiencia creando dashboards personalizados para monitorear KPIs y analizar el rendimiento de campañas.
  • Power BI: Se valorará experiencia en esta plataforma mas no será excluyente.
  • Conocimientos en Google Analytics 4 y otras herramientas de seguimiento de datos.
  • Experiencia en análisis de Google Ads, Meta Ads (Facebook/Instagram), y otras plataformas de medios digitales.

Opcionales

  • Comunicación efectiva: Capacidad para presentar datos complejos de manera clara, traduciendo los insights en recomendaciones accionables.
  • Capacidad de síntesis: Extraer lo esencial de grandes volúmenes de información y comunicarlo de manera sencilla.
  • Orientación a resultados: Enfocado en identificar mejoras que impacten directamente en el rendimiento de las campañas.
  • Proactividad: Ser capaz de identificar oportunidades de optimización antes de que se conviertan en problemas.
  • Trabajo en equipo: Colaboración eficaz con otros equipos para garantizar la implementación efectiva de las estrategias propuestas.

Beneficios

  • Trabajo 100% Remoto
  • Horarios Flexibles
  • Capacitación Continua
  • Equipo Dinámico y Orientado a Resultados
  • Oportunidades de Crecimiento Profesional
  • Salario Competitivo
  • Día de Cumpleaños Libre

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Data Analyst
  • coderslab.io
  • Lima (Hybrid)
SQL BigQuery Big Data SQL Server

En CodersLab actualmente nos encontramos en el crecimiento de los equipos apuntando a un crecimiento global que nos permita posicionarnos con nuestros productos en más países de Latinoamérica, por lo que estamos en búsqueda de un Data Analyts quien deberá ser una persona con mucha motivación y una especie de sexto sentido para comprender las necesidades del mercado.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

  1. Recolección de Datos: Recopilar datos de diversas fuentes, que pueden incluir bases de datos, archivos CSV, APIs, encuestas y otras fuentes de información.
  2. Limpieza de Datos: Limpiar y preparar los datos para su análisis, lo que implica eliminar duplicados, manejar valores faltantes y corregir inconsistencias.
  3. Análisis Exploratorio de Datos (EDA): Realizar un análisis inicial para descubrir patrones, tendencias y anomalías en los datos. Esto puede incluir el uso de estadísticas descriptivas y visualizaciones gráficas.
  4. Visualización de Datos: Crear gráficos, dashboards y otras visualizaciones para ayudar a comunicar los hallazgos de manera efectiva a los stakeholders. Herramientas como Tableau, Power BI o incluso Python con bibliotecas como Matplotlib y Seaborn son comúnmente utilizadas.
  5. Modelado de Datos: Dependiendo de la complejidad del análisis, puede participar en la construcción de modelos estadísticos o de machine learning para hacer predicciones basadas en los datos.
  6. Informe de Resultados: Elaborar informes que resuman los hallazgos y recomendaciones, presentando la información de forma clara y concisa para diferentes niveles de la organización.

Requerimientos del cargo

Nos encontramos en la búsqueda de un un perfil con los siguientes requisitos excluyentes:
-Conocimiento en SQL Server
-Conocimiento en BigQuery
-Conocimiento en Looker Studio
-Conocimiento en Bigquery Orchestrator
-Conocimiento en Gitlab
-Conocimiento en ETLs

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage coderslab.io pays or copays health insurance for employees.
APPLY VIA WEB
$$$ Full time
Analista de Planificación e Información
  • SMU
  • Santiago (Hybrid)
Excel SQL HTML5 PHP

¿Quieres formar parte de la red de Supermercados más grande de Chile? 😃

En esta oportunidad estamos en búsqueda de un Analista Planificación e Información, para desempeñarse en nuestra oficina central, en Las Condes, RM, quien será responsable de solucionar problemas, realizar mejoras, simplificar el trabajo diario de los colaboradores y dar visibilidad a los procesos del negocio mediante análisis y desarrollos informáticos. Todo ello alineado con el objetivo común de la compañía, enfocándose principalmente en el área de Logística y Cadena de Suministro (Supply Chain) de SMU.

¿En qué consisten sus funciones?

  • Analizar y desarrollar soluciones informáticas.
  • Presentar soluciones mediante informes, reportes, páginas web o lenguajes de programación.
  • Reducir los tiempos de trabajo en todas las áreas de logística según los requerimientos.
  • Interactuar con los sistemas principales de la compañía mediante la lectura y escritura de datos.
  • Ser un soporte fundamental en los cambios que se realizan a los sistemas de reposición de la compañía (Supply Chain - JDA: ASR - AWR).
  • Prestar soporte al área de Supply Chain en base a compras directas y centralizadas según las contingencias.

Requisitos:

  • Título de Ingeniero(a) en Informática.
  • Experiencia mínima de 1 año (excluyente).
  • Manejo de Microsoft Excel a nivel avanzado.
  • Manejo de lenguajes orientados al desarrollo web (HTML, PHP, Java Script).
  • Manejo de SQL nivel intermedio/avanzado (excluyente).
  • Deseable conocimiento en SAP.

En SMU S.A. apoyamos y promovemos la Ley N°21.015 de Inclusión Laboral. Además nos encontramos certificados en la Norma Chilena NCh: 3262, de Gestión de igualdad de género y conciliación de la vida laboral, familiar y personal. Por esta razón queremos destacar que todas nuestras oportunidades laborales están abiertas a personas con discapacidad , y sin ningún tipo de distinción ni discriminación por género.

Conditions

Health coverage SMU pays or copays health insurance for employees.
Computer provided SMU provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Science Experiencia en Minería
  • NTT DATA Europe & LATAM
  • Santiago (Hybrid)
Analytics Azure Microservices Big Data

Te apasiona la tecnología y buscas un desafío?

NTT DATA Chile es una empresa global que ofrece un ambiente de trabajo inclusivo y respetuoso, donde cada persona es valorada por su Uniqueness. ✨

Somos un equipo de más de 139.000 profesionales apasionados por la tecnología que trabajan en proyectos de vanguardia en diversos sectores, incluyendo telecomunicaciones, finanzas, industria, servicios públicos, energía, sector público y salud.

Para seguir innovando y liderando en estos sectores, estamos buscando un(a) Data Science, con experiencia en Minería que se incorpore a nuestro equipo de #DigitalLovers.

Funciones del cargo

  1. Analisis de Datos exploratorios (EDA)
  2. Preparación y limpieza de Datos
  3. Desarrollo y entrenamiento de modelos machine learning.
  4. Implementacion de modelos de Produccion
  5. Optimización y evaluación de modelos
  6. Integracion de pipelines de Datos

Entre otras

Requerimientos del cargo

  • Experiencia en creación de ELT de punta a punta en Azure Data Factory, Databricks y/o Synapse.
  • Deseable conocimiento en módulos de SAP, por ejemplo, HANA y MII.
  • Familiaridad con la arquitectura de microservicios y patrones de diseño relacionados en entornos de Azure.
  • Experiencia en la creación de soluciones de análisis de datos utilizando servicios como Azure Data Lake (o Delta Lake), Azure Synapse Analytics y/o Databricks

Habilidades Blandas:

  • Mínimo 1 o 2 años de experiencia trabajando en roles similares.
  • Excelentes habilidades de comunicación verbal y escrita, capaz de colaborar eficazmente con equipos multidisciplinarios y transmitir ideas técnicas de manera clara y concisa.
  • Fuerte habilidad para solucionar problemas y trabajar de forma autónoma, con capacidad para adaptarse rápidamente a nuevos entornos y tecnologías.
  • Orientado a resultados, con un enfoque en la alta calidad de soluciones que satisfagan las necesidades del cliente.
  • Habilidad deseable para trabajar en un entorno ágil

Educación y Certificaciones:

  • Licenciatura en Ciencias de la Computación, Ingeniería de Software o campo relacionado.
  • Certificaciones relevantes de Microsoft Azure como DP 900 o AZ 900.

Condiciones

¿Qué te ofrecemos?

  • Plan de carrera sólido y oportunidades de crecimiento 📈
  • Paquete de compensación competitivo 💼
  • Un equipo multicultural y diverso 🌐
  • Ambiente de trabajo dinámico y colaborativo 🤝
  • Ser parte de una empresa comprometida con la Ley de Inclusión Laboral 21.015

Partially remote You can work from your home some days a week.
Health coverage NTT DATA Europe & LATAM pays or copays health insurance for employees.
Computer provided NTT DATA Europe & LATAM provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Analytics Engineer
  • Passport Shipping
Excel SQL Analytics Tableau

About Passport:

Passport is reinventing cross-border e-commerce logistics as the modern international shipping carrier of choice for eCommerce (customers include Bombas, Native, Ritual, Seed.com). By combining our proprietary asset light network along with technology and customer support, we ensure that consumers around the world receive their packages without the hassle and pain that is typically associated with international shipping.

We’re a growing, ambitious team looking to upend the trillion-dollar international parcel shipping industry through a world-class experience. At Passport, you will have the opportunity to work with some of the biggest e-commerce merchants in the world and think strategically on how to add value to their international business. See this TechCrunch (https://tcrn.ch/2TKQ4eO) article to understand why brands love us.

What you'll be doing

  • Design, build, and maintain in-house tools, dashboards & reports to support various finance programs and projects
  • Bridge the gap between the finance and the tech teams to create transparent processes
  • Manipulate large data sets and perform various types of analyses ie. descriptive, prescriptive, inferential, causal, exploratory analyses, etc.
  • Document and maintain internal knowledge base articles and resources in Notion

Qualifications and requirements

  • Professional level English Speaking/ Writing Capability
  • Minimum 1 years experience extracting and processing data using SQL
  • Fluency in Google Sheets and Excel functions
  • Minimum 1 years experience utilizing data visualization software (Tableau, PowerBI, etc.)
  • Experience communicating between technical and non-technical teams
  • Excellent verbal and written communication skills
  • Bonus points, if you have experience working with data warehouses but not required

What you'll get...

  • Competitive cash and equity packages
  • Travel & Expenses funds for company events
  • 100% remote work environment #LI-Remote
  • Paid Time Off
  • Themed happy hours - bring on the Zoom comedians, pop-a-shot contests, and sip ’n paints!
  • Quarterly team (virtual) gatherings and annual team offsites
  • Learning & Development Fund for upskilling or products to improve your day-to-day work life
  • Teammates around the world in 8 different time zones!

APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Científico de Datos
  • TrackTec
  • Santiago (Hybrid)
SQL Python R Big Data

TrackTec es una empresa líder en desarrollo de soluciones tecnológicas y plataformas para gestión de flotas vía telemetría avanzada, con más de 15.000 vehículos monitoreados. En este contexto, el proyecto está enfocado en el control y mantenimiento de flotas mediante telemetría para el Sistema de Transporte Público de Santiago, buscando optimizar la seguridad y eficiencia operativa.

Responsabilidades:

  • Procesar, analizar e interpretar los datos generados por los dispositivos de telemetría y GPS instalados en vehículos o equipos.
  • Identificar patrones, tendencias y anomalías en los datos para optimizar el rendimiento y la eficiencia operativa.
  • Realizar análisis exploratorios de datos (EDA) para diagnosticar el estado técnico y mecánico de los buses en base a la data capturada por telemetría.
  • Identificar patrones y desarrollar modelos para detectar anomalías en el comportamiento de las variables monitoreadas.
  • Elaborar informes detallados sobre el estado de salud de los vehículos y sugerir mejoras en los sistemas de monitoreo.

Requisitos:

  • Título en Estadística, Ingeniería en Informática, Matemáticas, o afines.
  • Experiencia en análisis de datos utilizando herramientas, tales como Python, R, SQL y plataformas de visualización (LookerStudio, PowerBI, Tableau, entre otras).
  • Capacidad para trabajar con grandes volúmenes de datos y aplicar técnicas de limpieza, preprocesamiento y análisis.

Deseable:

Conocimiento en procesamiento de datos de telemetría o sistemas de monitoreo de flotas.

Experiencia en proyectos relacionados con transporte, telemetría o mantenimiento predictivo.

Experiencia en implementación de procesos ETL para la extracción, transformación y carga de datos.

Beneficios:

  • Oportunidad de trabajar en proyectos de gran escala en una empresa líder en soluciones de telemetría para transporte y minería.
  • Ambiente de trabajo flexible con opciones de trabajo remoto.
  • Participación en proyectos innovadores con impacto en la seguridad vial.
  • Trabajo híbrido.
  • Vestimenta informal.
  • 12 días adicionales de vacaciones al año (bajo condiciones definidas).
  • Entrega de dominio de notebook asignado al cumplir 3 años de antigüedad con TrackTec.
  • Aguinaldo Fiestas Patrias y Navidad según tramo.
  • Seguro Complementario de Vida, Salud y Dental a partir de la renovación de contrato a plazo indefinido.
  • Afiliación a la CCAF Los Andes.
  • Bono por referidos contratados de $300.000 brutos.
  • Servicio de acercamiento a través de vehículo (van) dispuesto por la empresa.

Life insurance TrackTec pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Commuting buses TrackTec provides free commuting buses from and to the offices.
Health coverage TrackTec pays or copays health insurance for employees.
Computer repairs TrackTec covers some computer repair expenses.
Dental insurance TrackTec pays or copays dental insurance for employees.
Computer provided TrackTec provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal TrackTec gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Investigador Junior de Proyectos
  • BNamericas
Excel English Data Analysis

BNamericas es una plataforma de inteligencia de negocios, multicultural e inclusiva que lleva 28 años de experiencia en el mercado LATAM proporcionando a sus clientes de información valiosa y actualizada sobre noticias, proyectos y toda la información relacionada con lo que está ocurriendo en sectores de Energía Eléctrica, Infraestructura, Minería y Metales, Petróleo y Gas, TIC, entre otros, de manera que puedan utilizar esta información para tomar decisiones estratégicas de su negocio.

Actualmente estamos en búsqueda de traductores inglés-portugués-española quienes les apasione investigar fuentes de información, para incorporarse al equipo de Investigadores junior de perfiles de proyectos.

Funciones del cargo

  • Realizar búsquedas de información en internet
  • Búsqueda y análisis de fuentes de información de proyectos en las áreas de cobertura
  • Buscar y actualizar información en CMS
  • Verificar que la información no esté homologada en otras fuentes
  • Revisar bases de datos, para la obtención de información y registrar la información obtenida en la base de datos de la empresa.

Requerimientos del cargo

  • Pasión por la investigación de fuentes de información.
  • Disponer de conexión a internet por cable
  • Mínimo 1 año de experiencia realizando traducciones técnicas e investigación de datos. (excluyente)
  • Dominio verbal y escrito de idiomas inglés y/o portugués a un nivel intermedio (excluyente)
  • Dedicación para realizar tareas con constancia y calidad.
  • Motivación por aprender de aplicaciones y herramientas de tecnología e información.
  • Título técnico/profesional en traducción, idiomas y carreras asociadas a la investigación y análisis de datos.
  • Dominio a nivel usuario en herramientas de informática (G-Suite; Excel, Outlook, Word, Onedrive).

Consideraciones:

  • Este trabajo se realiza 100% remoto desde Chile.
  • Horarios: la coordinación de tareas se realiza entre las 8.00 y las 17.00 pm vía Microsoft Teams.
  • Es necesario tener disponibilidad para iniciar en noviembre 2024

Condiciones

  • Plazo fijo, renovable de acuerdo a desempeño.
  • Trabajo remoto localmente.
  • Pertenecer a una de las empresas de inteligencia y negocio con mayor trayectoria en LATAM
  • Excelente ambiente laboral multicultural
  • Oportunidades de aprendizaje y formación continua
  • Beneficios Corporativos (Programa de bienestar, Seguros de Vida, Salud y Dental, 2 Interferiados al año, reparaciones de la computadora de empresa, Pausa Activa, Descuentos en compras con comercios en convenio; medio día libre el día de tu cumpleaños; navidad y año nuevo; Aguinaldos de Fiestas Patrías y Navidad; y mucho más)

Wellness program BNamericas offers or subsidies mental and/or physical health activities.
Life insurance BNamericas pays or copays life insurance for employees.
Health coverage BNamericas pays or copays health insurance for employees.
Dental insurance BNamericas pays or copays dental insurance for employees.
Computer provided BNamericas provides a computer for your work.
Fitness subsidies BNamericas offers stipends for sports or fitness programs.
Personal coaching BNamericas offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Shopping discounts BNamericas provides some discounts or deals in certain stores.
APPLY VIA WEB
Gross salary $1500 - 1600 Full time
Analista de Datos Lima Peru
  • Kibernum
  • Lima (Hybrid)
SQL SQL Server Data Analysis GitLab

Kibernum es una compañía chilena con 30 años de experiencia, orientada a crear e implementar servicios IT de excelencia, con presencia en Chile y Colombia. La empresa se especializa en ofrecer soluciones en diversos sectores como banca, retail, salud, gobierno, seguros, educación y telecomunicaciones. Actualmente, Kibernum cuenta con más de 1500 colaboradores y busca fortalecer su equipo en Rancagua, ofreciendo un entorno de trabajo colaborativo y oportunidades de desarrollo profesional.

Funciones del cargo

Realizar la migración de los reportes en excel a looker studio, a través de procesos generados en BigQuery
Realización de tareas designadas por su jefatura inmediata

Requerimientos del cargo

Se requiere experiencia en SQL Server
Se requiereb experiencia trabajando conBigQuery
Se requiere experiencia trabajando con Looker Studio
Se requiere experiencia trabajando con Gitlab
Se requiere experiencia trabajando con ETLs

APPLY VIA WEB
$$$ Full time
Ingeniero/a de Base de Datos
  • Empresas SB
  • Santiago (Hybrid)
MySQL SQL Oracle PostgreSQL

Somos un grupo de empresas de retail, especialistas en salud y belleza, dedicados a hacer sentir bien a las personas, estén donde estén. Nuestras filiales son: Salcobrand, PreUnic, DBS, Make Up, Recetario Magistral, Pharma Benefits, Farmaprecio, Liquidadora Santo Alivio y Medcell.
Nuestra clave de éxito es una fuerte cultura de servicio. Centramos los esfuerzos en el desarrollo de nuestros colaboradores, con diversos planes de capacitación y un potente programa de Reconocimiento.
En Empresas SB, nos caracterizamos por ser una empresa que fomenta e impulsa el valor de equipos de trabajo diversos, aceptando el sello propio de cada colaborador, facilitando así, ambientes laborales inclusivos, según la Ley 21.015.

Funciones del cargo

Nos encontramos en búsqueda de profesional para el cargo de Ingeniero/a de Base de Datos.

¿Cuál será tu desafío en este cargo?

Participar activamente en la ejecución de las actividades de administración, mantención y soporte de las plataformas de Bases de Datos productivas, Desarrollo y QA de la compañía, garantizando la continuidad operativa, cumplimiento de SLA’s y calidad del servicio.

Tus principales funciones:

  • Administrar y dar mantenimiento a los Sistemas de Bases de Datos.
  • Analizar indicadores de comportamiento de las Bases de Datos administradas y establecer planes de optimización.
  • Ejecutar los programas de monitoreo activo de los Sistemas de Bases de Datos Productivos.

Requerimientos del cargo

  • Título de Ing. Informática, Ing. Ejecución Informática, Ing. Civil en Computación.
  • Al menos 4 años de experiencia en Bases de Datos (Oracle, SQLServer, MySQL, Postgresql), Sistemas y ERP.
  • Experiencia en Gestión de Proyectos.

Conditions

Wellness program Empresas SB offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Meals provided Empresas SB provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Commuting buses Empresas SB provides free commuting buses from and to the offices.
Computer provided Empresas SB provides a computer for your work.
Informal dress code No dress code is enforced.
Shopping discounts Empresas SB provides some discounts or deals in certain stores.
Beverages and snacks Empresas SB offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Analista de Datos UAT
  • Kibernum
SQL Python Google Cloud Platform Cloud Computing

Kibernum es una compañía chilena con 30 años de experiencia, orientada a crear e implementar servicios IT de excelencia, con presencia en Chile y Colombia. La empresa se especializa en ofrecer soluciones en diversos sectores como banca, retail, salud, gobierno, seguros, educación y telecomunicaciones. Actualmente, Kibernum cuenta con más de 1500 colaboradores y busca fortalecer su equipo en Rancagua, ofreciendo un entorno de trabajo colaborativo y oportunidades de desarrollo profesional.

Funciones

Participar activamente en la fase de User Acceptance Testing (UAT), garantizando que las soluciones de datos implementadas cumplen con los requisitos de los usuarios. Desarrollar y ejecutar casos de prueba para validar los flujos de datos en entornos de GCP. Extraer, transformar y analizar grandes volúmenes de datos utilizando SQL y herramientas como Bruno. Automatizar pruebas y procesos utilizando Python para asegurar la calidad y eficiencia en el análisis de datos. Consumir y procesar datos de diferentes APIs para integrarlos en los sistemas de análisis y validación. Colaborar con equipos de desarrollo y negocio para definir escenarios de prueba y asegurar la correcta entrega de soluciones.

Descripción

️ Requerimientos técnicos:

2 a 3 años de experiencia en análisis de datos, preferentemente en entornos productivos con UAT. Experiencia trabajando con Google Cloud Platform (GCP), especialmente en el manejo de grandes volúmenes de datos y su procesamiento en la nube. Dominio de Python para automatización de procesos y análisis de datos. Habilidad en la integración y consumo de datos desde APIs para su posterior análisis. Conocimientos sólidos de SQL para consultas complejas y análisis de bases de datos. Familiaridad con Bruno u otras herramientas similares para la manipulación y validación de datos.

 Requisitos del candidato:

Fuerte capacidad para trabajar en equipo y colaborar con distintos equipos técnicos y de negocio. Capacidad resolutiva para identificar y solucionar problemas durante la fase de pruebas y validación de datos. Alto nivel de organización y atención al detalle, con capacidad para manejar múltiples proyectos simultáneamente.

Beneficios

Contrato indefinido con posibilidades de crecimiento profesional. Modalidad híbrida de trabajo (días en oficina y remoto). Acceso a capacitaciones y oportunidades para trabajar con tecnologías de última generación. Excelente ambiente laboral, enfocado en la colaboración y el desarrollo personal.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Docente Adm. Sist. Operativo Enterprise, S. Joaquín, Diurno
  • Duoc UC
  • Santiago (In-office)
Education Cybersecurity Linux

Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia que, como parte de la misión evangelizadora de la Iglesia, está al servicio del desarrollo de la sociedad por medio de la formación de personas, técnicos y profesionales, capaces de desplegar un proyecto de vida integral con una impronta ético/cristiana. Cuenta con la máxima acreditación institucional, posee 9 escuelas y más de 70 carreras, presentes en 19 sedes de la Región Metropolitana, Valparaíso, Biobío, La Araucanía y Los Lagos

Funciones del cargo

Duoc UC Sede San Joaquín, Escuela de Informática y Telecomunicaciones requiere contratar docentes para la asignatura de Administración Sistema Operativo Enterprise con disponibilidad en jornada diurna, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requerimientos del cargo

Es requisito contar con:

  • Formación: Ingeniero Informático, Ingeniero en Redes o Ingeniero en Infraestructura.
  • Experiencia: 3 años de experiencia comprobable en gestión y operación de áreas relacionadas a las Tecnologías de Información, principalmente en actividades relacionadas a especializaciones de Sistemas Operativos (Linux), Virtualización, Seguridad, Automatización, entre otros.
  • Disponibilidad: Jornada diurna.
  • Otros requisitos:Deseable Certificación CCNA.

Para postular es indispensable que pueda revisar previamente el siguiente video y documento, para lo que se recomienda:

1.- Video del Proyecto educativo: https://www.youtube.com/watch?v=FVfUAzP0OWY
2.- Documento de los valores institucionales https://s.openagora.net/clientes/duoc/custom/2022_05/fundamentos_duoc_uc_mayo_2022.pdf

APPLY VIA WEB
Gross salary $2800 - 3500 Full time
Arquitecto de RPA y Automatización de Procesos
  • Kibernum
  • Santiago (Hybrid)
Google Cloud Platform Automation Agile Bizagi Modeler

Kibernum es una compañía chilena con 33 años de experiencia, orientada a crear e implementar servicios IT de excelencia, con presencia en Chile y Colombia. La empresa se especializa en implementar servicios IT en diversos sectores como banca, retail, salud, gobierno, seguros, educación y telecomunicaciones. Actualmente, cuenta con más de 1500 colaboradores y ofrece un ambiente de trabajo dinámico y colaborativo, con oportunidades de crecimiento profesional y desarrollo de habilidades. El equipo busca un Arquitecto RPA y automatización de procesos, para contribuir a su evolución digital.

Si bien hay un equipo robusto de arquitectura, está compuesto por distintas áreas de expertise, sin embargo falta el reforzamiento de automatización y robotización. Trabajará apoyando al equipo de desarrollo en automatizaciones más amplias.

Objetivos del rol: Establecer marco tecnológico, definiciones de arquitectura y buenas prácticas. Robotización RPA y automatización de procesos.

¿Qué harás en este rol?

  • Diseñar y definir la arquitectura de RPA y procesos.
  • Colaborar con equipos de desarrollo y áreas de negocio.
  • Ser coach y guía en mejores prácticas de automatización.
  • Evaluar y capacitar en nuevas tecnologías.

Requisitos:

  • Mínimo 2 años de experiencia en arquitectura RPA y automatización de procesos.
  • Dominio de UiPath y plataformas BPA (Bizagi, Appian, Processmaker, etc).
  • Conocimientos en Google Cloud Platform deseables.
  • Experiencia en trabajo con equipos ágiles.

Beneficios:

  • Seguro médico.
  • Acceso a plataformas de aprendizaje.
  • Bonos.
  • Trabajo semipresencial, asistiendo a oficinas los viernes.
  • Horario: Lunes a Jueves 8:30 - 18:00, Viernes hasta las 14:00 hrs.

Life insurance Kibernum pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Dental insurance Kibernum pays or copays dental insurance for employees.
Computer provided Kibernum provides a computer for your work.
APPLY VIA WEB
Gross salary $2800 - 2900 Full time
Data Engineer
  • Kibernum
  • Santiago (Hybrid)
Python ETL Git PL/SQL

Kibernum es una compañía chilena con 30 años de experiencia, orientada a crear e implementar servicios IT de excelencia, con presencia en Chile y Colombia. La empresa se especializa en ofrecer soluciones en diversos sectores como banca, retail, salud, gobierno, seguros, educación y telecomunicaciones. Actualmente, Kibernum cuenta con más de 1500 colaboradores y busca fortalecer su equipo en Rancagua, ofreciendo un entorno de trabajo colaborativo y oportunidades de desarrollo profesional.

Funciones del cargo

Migrar pipelines de ingestas de datos legadas, hacia un nuevo Framework de Ingestas.
Regularizar data existente para que cumpla con estándares normativos.
Realizar nuevas ingestas de acuerdo a las necesidades del negocio.
Mantener al día las tecnologías y prácticas que bajen desde Data Factory.
Contener y resolver ++ incidencias del día a día relacionadas a los procesos de datos

Requerimientos del cargo

Experiencia minima de 3 años trabajando con PL/SQL
Experiencia minima de 3 años trabajando con Python
Experiencia mínima de 3 años trabajando con Gitlab
Experiencia minima de 3 años trabajando con Git y ETL

APPLY VIA WEB
$$$ Full time
Data Engineer con GCP
  • NTT DATA Europe & LATAM
  • Temuco (Hybrid)
SQL Python Google Cloud Platform Cloud Computing

Te apasiona la tecnología y buscas un desafío?

NTT DATA Chile es una empresa global que ofrece un ambiente de trabajo inclusivo y respetuoso, donde cada persona es valorada por su Uniqueness. ✨

Somos un equipo de más de 139.000 profesionales apasionados por la tecnología que trabajan en proyectos de vanguardia en diversos sectores, incluyendo telecomunicaciones, finanzas, industria, servicios públicos, energía, sector público y salud.

Para seguir innovando y liderando en estos sectores, estamos buscando un(a) Data Engineer con manejo de GCP que se incorpore a nuestro equipo de #DigitalLovers.

Funciones del cargo

- Diseño y arquitectura de Pipelines de Datos Complejos
. Gestion y optimización avanzada de Almacenamiento de Datos
. Desarrollo avanzado en Python para procesamiento de Datos
. Consultas SQL avanzadas y optimización de Rendimiento
. Mantenimiento de la estructura de GCP

Requerimientos del cargo

Experiencia:

  • Al menos 3 años como Data Engineer.
  • Experiencia comprobable con GCP.

Conocimientos Técnicos:

  • GCP avanzado
  • Python avanzado
  • SQL avanzado
  • Deseable: Habilidades de comunicación sólidas, Trabajo en equipo y colaborativo

Excluyente:

  • Residencia fuera de la region Metropolitana, de O´Higgins o Valparaiso

Condiciones

  • Plan de carrera sólido y oportunidades de crecimiento 📈
  • Paquete de compensación competitivo 💼
  • Un equipo multicultural y diverso 🌐
  • Ambiente de trabajo dinámico y colaborativo 🤝
  • Ser parte de una empresa comprometida con la Ley de Inclusión Laboral 21.015

Health coverage NTT DATA Europe & LATAM pays or copays health insurance for employees.
Computer provided NTT DATA Europe & LATAM provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1500 - 2200 Full time
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Apigee Microservices Google Cloud Platform Cloud Computing

En CodersLab actualmente nos encontramos en el crecimiento de los equipos apuntando a un crecimiento global que nos permita posicionarnos con nuestros productos en más países de Latinoamérica, por lo que estamos en búsqueda de un Data Engineer quien deberá ser una persona con mucha motivación y una especie de sexto sentido para comprender las necesidades del mercado.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

Creación de tablas, Conexión y extracciones de BD GCP
Generación de interfaces y automatización de estas extracciones para generar microservicio y conexión con API interfaz DTE , recepción de resultados para cargar en BD

Requerimientos del cargo

Nos encontramos en la búsqueda de un perfil con un amplio conocimiento en :
-Conocimiento en GCP
-Conocimiento en Cloud
-Conocimiento en Microservicios Apigee
-Conocimiento en OCI
-Conocimiento en Integraciones

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage coderslab.io pays or copays health insurance for employees.
APPLY VIA WEB
Gross salary $1300 - 1800 Full time
Business Analyst
  • coderslab.io
  • Santiago (Hybrid)
Business Analyst

En CodersLab actualmente nos encontramos en el crecimiento de los equipos apuntando a un crecimiento global que nos permita posicionarnos con nuestros productos en más países de Latinoamérica, por lo que estamos en búsqueda de un Business Analyst quien deberá ser una persona orientada al cumplimiento de los objetivos planteados.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
Postula para este tremendo desafío!

Funciones del cargo

Habilidades:

  • Ing. Civil Informática/Industrial o carreras afines.
  • Experiencia mínima de 3 años en cargos de BA
  • Sólidas habilidades analíticas y de resolución de problemas.
  • Manejo de Jira y Confluence
  • Dominio de excel, ppt, project
  • Autogestión, adaptación al cambio y proactividad
  • Excelentes habilidades de comunicación oral y escrita
  • Conocimiento general teórico de tecnología (Base de datos, tecnologías cloud (GCP, OCI, Azure, etc.), redes, entre otros.)
  • Experiencia en gestión ed recursos y presupuesto.
  • Experiencia en infraestructura (deseable)

Tareas a Ejecutar:

  • Planificación y priorización de iniciativas y actividades
  • Gestión y seguimiento de plan de proyectos mediante paneles de control en vista del cumplimiento de actividades
  • Facilitar la eliminación de obstáculos en mira al progreso y cumplimiento de metas del equipo
  • Seguimiento del uso de recursos y trabajo conjunto con PO para garantizar la disponibilidad de recursos
  • Garantizar la alineación con los objetivos del PO.
  • Comunicación efectiva de resultados de proyecto y backlog con stakeholders para el cumplimiento de objetivos
  • Coordinación de equipo y terceras partes
  • Detectar proactivamente riesgos e incidencias
  • Coordinación y participación activa en mesas de trabajo para asegurar una clara comunicación y entendimiento de los requerimientos
  • Análisis de información y mejora continua de procesos a través de metodologías ágiles

Requerimientos del cargo

Requisitos:

  • Profesional orientado a resultados con experiencia en industria financiera y/o banca digital.
  • Excelentes habilidades de comunicación y presentación.
  • Toma de decisiones basada en datos y capacidad para identificar oportunidades de mejora.
  • Experiencia en gestión de recursos y presupuesto.
  • Capacidad para crear un ambiente de trabajo colaborativo y motivador.
  • Entusiasta por aprender y aplicar nuevas tecnologías y metodologías.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage coderslab.io pays or copays health insurance for employees.
APPLY VIA WEB
$$$ Full time
Data Engineer con AWS
  • Leniolabs_
Lean NoSQL SQL PostgreSQL

Leniolabs es una empresa de desarrollo de software con sedes en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes que se encuentran principalmente en San Francisco, sumándose con nuestros equipos y estructura.
Nuestra experiencia se basa fuertemente en el desarrollo frontend con lenguajes como Javascript, React y Angular. También trabajamos algunos proyectos en backend con lenguajes como Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a las/los desarrolladoras/es dinámicas/os en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc.

Job functions

En Leniolabs estamos en la búsqueda de un Data Engineer con experiencia en AWS y amplio manejo de PostgreSQL. El candidato ideal debe contar con conocimientos en herramientas de infraestructura como IaC (CDK) y experiencia en la construcción y mantenimiento de pipelines de ETL, así como en la implementación de Data Warehouses y Data Lakes. Buscamos una persona capaz de diseñar, implementar y mantener infraestructuras de datos escalables y seguras, colaborando con equipos multifuncionales para optimizar el rendimiento y garantizar una gestión eficiente de los datos. Valoramos perfiles proactivos, con interés en las últimas tecnologías y capacidad para aportar soluciones innovadoras y escalables.

Qualifications and requirements

  • Más de 5 años de experiencia en roles de datos.
  • Nivel de inglés: Intermedio/avanzado en adelante (B2+)
  • Amplia experiencia trabajando con bases de datos SQL, preferentemente PostgreSQL y despliegue de soluciones en la nube, preferentemente AWS.
  • Conocimiento y experiencia en herramientas de la nube, desarrollo nativo en la nube y IaC, preferentemente en entornos AWS.
  • Experiencia desarrollando y consumiendo API REST.
  • Experiencia con pipelines de ETL, data warehouses y data lakes.
  • Familiaridad con arquitecturas basadas en microservicios.
  • Experiencia en la implementación de CI/CD, despliegues en la nube, y GitHub Actions.
  • Conocimiento y experiencia con AWS CDK y TypeScript destacando servicios como S3, Glue, Lambda, RDS, EventBridge, y Kinesis.
  • Experiencia trabajando bajo metodologías ágiles como SCRUM/Lean.
  • Manejo avanzado de bases de datos SQL y NoSQL, data warehouses, data lakes, y pipelines de ETL.

Desirable skills

  • Se valoran conocimientos en Jupyter, Spark, dbt, y Redshift.

Conditions

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Administrador/a de Bases de Datos
  • Kibernum
  • Santiago (Hybrid)
SQL PostgreSQL ETL Agile

Kibernum es una compañía chilena con 30 años de experiencia, orientada a crear e implementar servicios IT de excelencia, con presencia en Chile y Colombia. La empresa se especializa en implementar servicios IT en diversos sectores como banca, retail, salud, gobierno, seguros, educación y telecomunicaciones. Actualmente, cuenta con más de 1500 colaboradores y ofrece un ambiente de trabajo dinámico y colaborativo, con oportunidades de crecimiento profesional y desarrollo de habilidades. El equipo busca un Administrador de Redes y Soporte Junior para contribuir a su evolución digital.

Funciones

Estamos buscando un/a Administrador/a de Bases de Datos con experiencia en la gestión y optimización de bases de datos SQL, PostgreSQL, y el uso de herramientas de integración como AWS Glue. La persona seleccionada será responsable de administrar, asegurar y optimizar nuestras bases de datos, así como de diseñar y ejecutar procesos ETL para integraciones complejas de datos.

Responsabilidades: Administrar y optimizar bases de datos SQL y PostgreSQL. Diseñar, implementar y mantener procesos ETL utilizando AWS Glue. Monitorear el rendimiento de las bases de datos y solucionar problemas de rendimiento. Implementar estrategias de backup y recuperación. Asegurar la alta disponibilidad y seguridad de las bases de datos. Trabajar de manera colaborativa con equipos de desarrollo para garantizar la integración eficiente de las bases de datos con las aplicaciones. Proporcionar soporte técnico y solucionar incidentes relacionados con las bases de datos.

Requisitos

Experiencia mínima de 3 años como DBA (Administrador de Bases de Datos).
Experiencia sólida en bases de datos SQL y PostgreSQL.
Conocimientos en la implementación y administración de procesos ETL .
Experiencia en optimización de consultas, particionamiento y diseño de esquemas de bases de datos. Conocimientos en estrategias de seguridad y alta disponibilidad de bases de datos.
Habilidad para trabajar en entornos ágiles y colaborativos.
Capacidad para resolver problemas de rendimiento y optimización de bases de datos.

Deseables

Manejo de AWS GLUE

Beneficios

Contrato indefinido de Inmediato
Reajuste salarial cada tres meses por el IPC Oportunidad de trabajar en proyectos desafiantes y de alto impacto.
Ambiente de trabajo dinámico y colaborativo.
Plan de desarrollo profesional y formación continua.
Bonos Aguinaldos Septiembre y Diciembre. [Beneficios adicionales como seguro médico, días de vacaciones, etc.]

Wellness program Kibernum offers or subsidies mental and/or physical health activities.
Life insurance Kibernum pays or copays life insurance for employees.
Digital library Access to digital books or subscriptions.
Dental insurance Kibernum pays or copays dental insurance for employees.
Computer provided Kibernum provides a computer for your work.
Informal dress code No dress code is enforced.
Shopping discounts Kibernum provides some discounts or deals in certain stores.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Business Analyst Senior
  • BC Tecnología
  • Santiago (Hybrid)
Excel Jira Cloud Business Analyst

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

MISIÓN Hacer posibles las aspiraciones de las personas, mejorar su calidad de vida y superar sus expectativas a través de una oferta integrada de servicios financieros, potenciada por los beneficios del "Mundo Falabella".

VISIÓN Ser la compañía preferida por las personas, generando relaciones de largo plazo a partir de:

  • Ser líderes por nuestra transparencia, simplicidad y conveniencia.
  • Atraer, desarrollar y motivar un equipo de excelencia, colaborativo y apasionado por los clientes.
  • Ser valorados por nuestro aporte a las comunidades donde trabajamos.

Funciones del cargo

  • Planificar y priorizar iniciativas tecnológicas.
  • Gestionar proyectos y recursos, garantizando el cumplimiento de actividades.
  • Colaborar con el PO para asegurar la disponibilidad de recursos y alineación con los objetivos.
  • Comunicar resultados y coordinar con stakeholders y terceros.
  • Identificar riesgos y mejorar procesos mediante metodologías ágiles.

Requerimientos del cargo

Al menos 3 años de experiencia en:

  • Experiencia como BA.
  • Manejo de Jira, Confluence, Excel, PowerPoint, Project.
  • Conocimientos en tecnologías Cloud, bases de datos, redes.
  • Experiencia en gestión de recursos, presupuesto, y deseable en infraestructura
  • Background en APP Mobile .

· Trabajo Hibrido (Ubicación Santiago Centro)

APPLY VIA WEB
Gross salary $2200 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
SQL Python Virtualization Docker

En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.

Bajo la guía de Carlos Hurtado, PhD en Data Science en la Universidad de Toronto 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .

Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS, Azure y algunas infraestructuras On-Premise.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- TypeScript (Intermedio)
- SQL (Avanzado)
- Utilización de Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ) y Azure (Intermedio).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

APPLY VIA WEB
Gross salary $1500 - 1800 Full time
Data Engineer
  • Moventi
  • Lima (Hybrid)
SQL Python Scala Scrum

Moventi is a forward-thinking company focused on leveraging technology to drive innovation and help organizations adapt to the rapidly changing world. The team is composed of multidisciplinary talents, providing an environment where continuous learning and professional growth are encouraged. Employees have the opportunity to work on high-impact projects and collaborate with professionals from various backgrounds. The office is centrally located, featuring parking, recreational areas for breaks, and agile meeting spaces for teamwork. The organizational culture emphasizes transparency, commitment, and innovation, fostering a positive impact through original ideas.

Funciones del cargo

  • Construcción y/o adecuaciones de los motores existentes para el procesamiento de datos.
  • Propuesta y/o atención de mejoras continuas.
  • Atención de requerimientos de ingesta de datos.
  • Creación de herramientas de apoyo para el trabajo con los datos.
  • Iniciativas constantes que se puedan aplicar en el área para mejorar los procesos existentes.

Requerimientos del cargo

  • Experiencia comprobada de 2 años cómo Data Engineer con Python, Scala.
  • Experiencia con el servidor de Nube de Azure (Data Lake, Evet Hubs, Functions, DataBricks)
  • Manejo avanzado de sentencias SQL y experiencia con Github.
  • Experiencia con Scrum.
  • Deseable experiencia en el sector de banca y/o finanzas.

Conditions

Computer provided Moventi provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • CMPC
  • Santiago (Hybrid)
SQL Python Virtualization Docker
MISIÓN
Resolver problemas relacionados con los datos de forma independiente, construir y desplegar modelos predictivos y comunicar los conocimientos obtenidos a las partes interesadas para impulsar un valor empresarial tangible. Crea y entrega soluciones basadas en datos que abordan los desafíos operativos de las fábricas de CMPC, mejoran la toma de decisiones y generan un impacto positivo en la organización.

Funciones del cargo

  • Interactuar con stakeholders internos para explorar y entender datos de proceso/negocio para traducir los problemas empresariales en casos de uso end-to-end.
  • Aplicar técnicas de machine learning y/o otras técnicas de análisis de datos para generar insights a partir de datasets eventualmente masivos.
  • Comunicarse con las partes interesadas del negocio en el proceso de diseño de servicios, capacitación y transferencia de conocimientos, convirtiéndose en un referente en plantas medianas o áreas de plantas grandes.
  • Trabajar con un equipo interdisciplinario liderado por un DS senior en la construcción, prueba industrial y puesta en producción de soluciones basadas en modelos predictivos de machine learning y/o inteligencia artificial.
  • Desarrolla de forma autónoma casos de baja o mediana complejidad, entendidos como casos con rápida velocidad de identificación de métodos de solución.
  • Asociarse con ingenieros de Machine Learning para productivizar modelos y soluciones.
  • Establece KPIs y métricas para evaluar la solución análitica dado un caso de uso particular.
  • Preparar y presentar hallazgos y resultados en informes claros y concisos, usando técnicas de visualización de datos.
  • Identifica y refina nuevos casos para el roadmap, mediante la formulación y validación de hipótesis para evaluar estrategias y medir su impacto.
  • Coordinar actividades de trabajo con equipos de Negocio, servicios de TI y otras áreas de la gerencia (datos, dev, devops, etc) cuando sea necesario.

Requerimientos del cargo

Formación:
  • Titulo profesional de Ingeniería matemática, informática, industrial, estadística u similar.
  • Deseable Postgrado en análisis de datos o similares
Experiencia: Poseer 2 a 3 años de experiencia desarrollada en posiciones de responsabilidad similar.
Conocimiento específico:
  • Programación en lenguaje Python, específicamente en tecnologías vinculadas a machine learning: librerías del stack Python, como numpy, pandas, scikit-learn, matplotlib, seaborn (EXCLUYENTE)
  • Conocimiento de lenguaje de consultas a base de datos (SQL) (EXCLUYENTE NIVEL BASICO)
  • Deseable Control de Versiones con Git
  • Familiaridad con servicios cloud orientados al desarrollo de modelos de Machine Learning, de preferencia Google Cloud Platform (GCP)
  • Deseable manejo de contenedores (Docker, GAR, etc)
  • Deseable dominio de frameworks de Deep Learning como Tensorflow, Keras o PyTorch
Computación: Python nivel medio-alto

Condiciones

  • Contrato: Indefinido
  • Ubicación: Santiago
  • Modalidad de trabajo: Hibrida
  • Disponibilidad para viajes eventuales dentro de Chile (1 - 2 veces al mes)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided CMPC provides a computer for your work.
Beverages and snacks CMPC offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2300 - 2700 Full time
Data Engineer Datalake
  • BC Tecnología
  • Santiago (Hybrid)
Data Engineer Audit Looker Studio

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Somos una organización que ofrece una variedad de servicios financieros de excelencia con el fin de permitir a nuestros clientes satisfacer sus necesidades de prosperidad familiar y seguridad patrimonial. Nuestra misión es crear valor para nuestros accionistas, construyendo relaciones de confianza con quienes interactuamos día a día, cumpliendo así nuestro rol de ser un buen ciudadano empresarial.

Ofrecemos además las condiciones necesarias para que las personas en nuestra organización desarrollen todo su potencial en un ambiente laboral desafiante y de respeto a los valores que consideramos importantes y profesamos.

Funciones del cargo

  • Asegurar el cumplimiento de auditorías de datos.
  • Traducir los requerimientos y necesidades del negocio en el backlog de productos de datos (definiendo características, visión, historias de usuario, etc.), garantizando el cumplimiento de las normativas (compliance).
  • Mantener el dashboard de clientes en Looker Studio.
  • Documentar completamente la gestión de datos, incluyendo el diccionario de datos del datalake.
  • Actuar como custodio del datalake del negocio, asegurando el cumplimiento de las normativas corporativas y la capacidad de extraer información para campañas.

Requerimientos del cargo

• Asegurar el cumplimiento de auditoría de datos.

• Mantener el dashboard de clientes en Looker Studio.

• Rearquitectura del Datalake: Organización de tablas y datos para asegurar el cumplimiento de normativas y auditorias.

• Integración con CIAM Corp.

Condiciones

Contrato Proyecto de 3 meses según desempeño Indefinido

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $1900 - 2700 Full time
Data Engineer 100%
  • coderslab.io
SQL Node.js Analytics Python

En CodersLab actualmente nos encontramos en el crecimiento de los equipos apuntando a un crecimiento global que nos permita posicionarnos con nuestros productos en más países de Latinoamérica, por lo que estamos en búsqueda de un DATA ENGINEER quien deberá ser una persona con mucha motivación y una especie de sexto sentido para comprender las necesidades del mercado.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

  1. Diseño y construcción de arquitecturas de datos: Crear y mantener la infraestructura necesaria para la recopilación, almacenamiento y procesamiento de grandes volúmenes de datos.
  2. Integración de datos: Desarrollar procesos que integren datos de múltiples fuentes, asegurando que la información se combine de manera coherente y esté lista para su análisis.
  3. Mantenimiento de bases de datos: Administrar, optimizar y mantener las bases de datos, garantizando su rendimiento y escalabilidad.
  4. ETL (Extracción, Transformación y Carga): Implementar y gestionar procesos ETL para mover y transformar datos entre sistemas, asegurando que los datos sean utilizables para análisis o reportes.
  5. Calidad de datos: Establecer y ejecutar procesos para asegurar la calidad de los datos, como la limpieza, validación y auditoría.
  6. Colaboración con otros equipos: Trabajar en estrecha colaboración con científicos de datos, analistas y otros equipos de tecnología para entender sus necesidades y asegurarse de que los datos estén disponibles y en el formato adecuado.
  7. Automatización de procesos: Desarrollar scripts y herramientas para automatizar tareas repetitivas en el manejo de datos.
  8. Implementación de sistemas de almacenamiento: Seleccionar e implementar soluciones de almacenamiento que sean eficientes y seguras, como data lakes y warehouses.
  9. Monitoreo y solución de problemas: Monitorear la infraestructura de datos para detectar problemas o fallos y solucionarlos de manera proactiva.

Requerimientos del cargo

Descriptor del Cargo

Habilidades y conocimientos Deseables

* Scala

* node

* Spark

* Kafka connect

* kafka

* Terraform

* Data sciennce

* Streamming process

Habilidades y conocimientos Obligatorio

* SQL

* JAVA

* PYTHON

* CONTAINERS ( DOCKER)

* KUBERNETES

* BIG QUERY

* DATA FLOW

* DATA PROC

* COMPOSER

* CLOUD RUN

* GITLAB CI

* DATA ANALYTICS

* DATA ARCHITECTURE

* BATCH PROCESING

* ORCHESTRATION

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
SQL Node.js Analytics Python

En CodersLab actualmente nos encontramos en el crecimiento de los equipos apuntando a un crecimiento global que nos permita posicionarnos con nuestros productos en más países de Latinoamérica, por lo que estamos en búsqueda de un Data Enginner quien deberá ser una persona con mucha motivación y una especie de sexto sentido para comprender las necesidades del mercado.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

-Análisis/ diseño / desarrollo pruebas de proceso de ingesta (ETL) de datos en ambientes GCP Big Data ( Data Lake)
-Mantenciones correctivas / evolutivas de procesos ETL/ ELT
- Desarrollar ingeniería de datos serveless via Pipelines
- Automatización de pipelines
- Integrar, consolidar, y limpiar datos y estructurarlos para su uso en aplicaciones analítica
-Apoyo en cualquier otra actividad o tarea afín con el rol dependiendo del proyecto que integre

Análisis, diseño desarrollo y mantenimiento de los sistemas de procesamiento de datos dentro de un proyecto big Data para esto, crea los pipelines de plataforma cloud y de Big data ( Data Lake) para la entrega de producción de modelos de datos, además de dar apoyo en el proceso de arquitectura y diseño de dichas plataformas, generando el desarrollo de procesos ETL/ ELT, así como la de ingeniería de datos serverlees y modelamiento analitico

Requerimientos del cargo

Habilidades y conocimientos Deseables
-Scala
- Node
-Spark
-Kafka connect
-Kafka
-Terraform
-Data sciennce
-Streamming process

Habilidades y conocimientos Obligatorio
- SQL
-JAVA
-PYTHON
-CONTAINERS ( DOCKER)
-KUBERNETES
-BIG QUERY
-DATA FLOW
-DATA PROC
-COMPOSER
-CLOUD RUN
-GITLAB CI
-DATA ANALYTICS
-DATA ARCHITECTURE
-BATCH PROCESING
-ORCHESTRATION

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage coderslab.io pays or copays health insurance for employees.
APPLY VIA WEB
Gross salary $3000 - 3200 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Python BigQuery

Data Engineer Senior en Banco Falabella tiene la misión de gestionar, desarrollar e implementar el ciclo de vida de iniciativas dentro de la Gerencia de Operaciones. Desde el levantamiento de la situación actual hasta su desarrollo, implementación y mantenimiento continuo. Además, será responsable de la automatización de procesos, integración continua, monitoreo y seguridad, asegurando que las soluciones sean escalables, confiables y eficientes.

Funciones del cargo

  • Automatización de procesos y recopilación de datos: Implementar procesos automatizados para garantizar que los datos utilizados para el análisis sean completos y estén actualizados.
  • Generación y automatización de visualizaciones de datos: Crear dashboards dinámicos que faciliten la comprensión de la información para su uso estratégico.
  • Colaboración interdisciplinaria: Integrarse continuamente con otros equipos para asegurar un trabajo colaborativo eficaz y sin interrupciones.
  • Presentación de informes y recomendaciones: Proporcionar informes claros con recomendaciones fundamentadas para la toma de decisiones.

Requerimientos del cargo

  • Análisis de datos y estadística.
  • Manejo de bases de datos (SQL, BIGQUERY, entre otras).
  • Conocimientos avanzados en lenguajes de programación (Python, SQL).
  • Herramientas de análisis y visualización (Excel, Power BI, Tableau, Data Studio).
  • Experiencia en el manejo de grandes volúmenes de datos (Big Data, Google Big Query).
  • Levantamiento de procesos.

Condiciones

  • Contrato Proyecto de 12 meses
  • Modalidad trabajo: Hibrido
  • Beneficios de la empresa

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Scientist con ML y NLP
  • Leniolabs_
Natural Language Processing Wireframes English Machine Learning Engineer

Leniolabs es una empresa de desarrollo de software con sedes en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes que se encuentran principalmente en San Francisco, sumándose con nuestros equipos y estructura.

Nuestra experiencia se basa fuertemente en el desarrollo frontend con lenguajes como Javascript, React y Angular. También trabajamos algunos proyectos en backend con lenguajes como Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a las/los desarrolladoras/es dinámicas/os en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc.

Job functions

En Leniolabs buscamos un científico de datos con sólidos conocimientos en machine learning y procesamiento de lenguaje natural (NLP). El candidato ideal deberá tener la capacidad de explicar conceptos técnicos complejos a distintos grupos de interés, colaborar con equipos multifuncionales y mantenerse al tanto de las últimas tendencias en investigación.

Skills requeridos

Habilidades requeridas:

Comunicación y Colaboración:

  • Capacidad para explicar conceptos complejos a audiencias técnicas y no técnicas.
  • Experiencia trabajando con equipos multifuncionales, facilitando la colaboración entre departamentos.

Ética en IA y Sesgos en Modelos:

  • Comprensión profunda de la ética en inteligencia artificial.
  • Conocimiento sobre los sesgos potenciales en los modelos de machine learning.
  • Capacidad para diseñar experimentos y modelos justos y sin sesgos.

Diseño e Implementación de Experimentos de ML:

  • Habilidad en diseñar, implementar y evaluar experimentos de ML.
  • Experiencia en prototipado rápido y pruebas de algoritmos de última generación (SOTA).

Resolución de Problemas de Negocio con ML:

  • Capacidad para traducir problemas de negocio en problemas de ML.
  • Competencia en diseñar planes de investigación y desarrollo de soluciones.

Fundamentos de ML y Arquitecturas de LLM:

  • Sólido entendimiento de los fundamentos de machine learning.
  • Profundidad de conocimiento en arquitecturas de Large Language Models (LLM), transformers y mecanismos de atención.
  • Experiencia con técnicas avanzadas de procesamiento de lenguaje natural (NLP).

Investigación y Tendencias en ML:

  • Capacidad para mantenerse actualizado con las últimas tendencias y avances en investigación de ML y NLP.

Idiomas: inglés intermedio/avanzado o avanzado es indispensable.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
Gross salary $1800 - 2100 Full time
Data Engineer (AWS)
  • BC Tecnología
SQL Python Scala Virtualization

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.
Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Somos una organización que ofrece una variedad de servicios financieros de excelencia con el fin de permitir a nuestros clientes satisfacer sus necesidades de prosperidad familiar y seguridad patrimonial. Nuestra misión es crear valor para nuestros accionistas, construyendo relaciones de confianza con quienes interactuamos día a día, cumpliendo así nuestro rol de ser un buen ciudadano empresarial.

Ofrecemos además las condiciones necesarias para que las personas en nuestra organización desarrollen todo su potencial en un ambiente laboral desafiante y de respeto a los valores que consideramos importantes y profesamos.

Funciones del cargo

​​​​​​​- Proporcionar los datos de una manera accesible y apropiada a los usuarios, especializado en infraestructura Big Data, experiencia en métodos
que deban servir para el desarrollo de aplicaciones Big Data.
​​​​​​​- Analizar, realizar y participar en propuestas de mejora continua de los distintos procesos, sistemas y/o tecnologías bajo su responsabilidad que son sujeto de revisión, así como realizar el testing o las pruebas necesarias para levantar alertas y/o aplicar los correctivos que sean necesarios para optimizar las iniciativas implementadas.
​​​​​​​- Participar en el levantamiento de las actividades señaladas en los procedimientos y metodologías establecidas según su especialidad, incorporando los distintos ámbitos (persona, organización, tecnología e infraestructura).
​​​​​​​- Aplicar los procedimientos de seguridad, metodologías y control de sistemas existentes, velando por la seguridad e integridad de los datos manejados, para garantizar la entrega de información confiable y un servicio de calidad a las áreas usuarias.
​​​​​​​- Participar en reuniones de coordinación y trabajo con los grupos involucrados, a fin de levantar la información necesaria para definir los requerimientos y formular modelos de solución; asesorando, dando seguimiento y realizando informes de avance para las áreas participantes y/o áreas usuarias.

Requerimientos del cargo

✅ Requerimiento:

Formación:

  • -Formación profesional nivel universitario

Experiencia:

Al menor 3 años de experiencia como Ingeniero de Datos

  • ​​​​​​​Bases de Datos, SQL,
  • Python
  • Servicios AWS (S3, Athena, Redshift, Lambda, AWS Glue, QuickSight, IAM, Step Functions, Data Sync, DynamoDB, entre otros).
  • Experiencia en Construir procesos de control e ingesta de datos al Data Lake, usando Kafka (muy deseable) y los Servicios de AWS como los descritos en el punto anterior.
  • Control versiones GIT (CodeCommit, GitLab)

Condiciones

✅ Condiciones:

  • -Contrato por proyecto a 4 meses
  • -Metodología de trabajo: Home Office
  • -Disponibilidad lunes a viernes
  • -Salario hasta 2.0 liquidos
  • -Beneficios (Seguro Complementario, Amipass $4.500 por día laborado, convenios, actividades, bonos)

APPLY VIA WEB
$$$ Full time
Analista ETL
  • Kibernum
  • Santiago (In-office)
SQL ETL Power BI SQL Server

Kibernum es una compañía chilena con 30 años de experiencia, orientada a crear e implementar servicios IT de excelencia, con presencia en Chile, Peru y Colombia. La empresa se especializa en la evolución digital, ofreciendo soluciones en diversos sectores como banca, retail, salud, gobierno, seguros, educación y telecomunicaciones. Actualmente, cuenta con más de 1500 colaboradores y se enfoca en co-diseñar soluciones con un alto grado de involucramiento y compromiso con el negocio, destacándose en áreas como IT Staffing, IT Academy y IT Consulting.

Funciones del cargo

Desarrollo ETL SSIS
Diseño y Modelamiento de Base de datos
Diseño Lógico y Físico de DataMart y Datawarehouse
Trabajar con Business Intelligence
Desarrollo de visualizaciones en Power BI
Experiencia en manejo de Motor SQL Server

Requerimientos del cargo

Desarrollo ETL SSIS
Diseño y Modelamiento de Base de datos
Diseño Lógico y Físico de DataMart y Datawarehouse
Trabajar con Business Intelligence
Desarrollo de visualizaciones en Power BI
Experiencia en manejo de Motor SQL Server

Condiciones

Todos los beneficios de ley

Health coverage Kibernum pays or copays health insurance for employees.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Scientist
  • YOM
  • Bogotá &nbsp Santiago &nbsp Ciudad de México (Hybrid)
SQL Python Keras PyTorch
Somos un equipo joven con ganas de generar un impacto social en el mercado de cara a los comercios de Chile, a través de la digitalización de la cadena de valor comercial del canal tradicional. Como equipo nos gusta que las cosas sucedan rápido, nos adueñamos de los problemas que vemos en el día a día e intentamos resolverlos de manera íntegra con el equipo, siempre de manera colaborativa, empática y honesta. Nos gusta aprender y estar al tanto de lo que ocurre a nuestro alrededor, incluso le sacamos provecho a los errores que cometemos, aprendiendo de ellos para no volver a cometerlos en un futuro.
Actualmente nos encontramos en búsqueda de nuestr@ próxim@ Data Scientist para integrarse al equipo de Intelligence.
Tenemos modalidad híbrida, pudiendo venir a nuestra oficina ubicada en Las Condes, Santiago, y trabajar desde casa u otro lugar :)

Funciones del cargo

- Velar por la confiabilidad y ejecución efectiva y eficiente de los modelos de Machine Learning.
- Proponer oportunidades de negocio basadas en datos.
- Desarrollar y mantener de modelos de machine learning (ML)
- Monitoreo y optimización de los modelos de ML
- Colaborar con equipos multidisciplinarios para la solución de problemas de negocio con técnicas de ciencia de datos
- Investigación y Exploración de nuevas tecnologías en ciencia de datos

Requerimientos del cargo

1. ⁠Al menos 2 años de experiencia demostrable en ciencia de datos o campo relacionado
2.⁠ ⁠Conocimiento de técnicas de modelado, feature engineering y evaluación de machine learning
3.⁠ ⁠Experiencia trabajando en Python, librerías como sklearn, numpy, pandas y o algún framework como Tensorflow, Keras, Pytorch, etc
4.⁠ ⁠Manejo de datos en bases de datos relacionales (SQL)
5.⁠ ⁠Capacidad para trabajar en equipo y comunicar resultados técnicos a audiencias no técnicas
6. Inglés intermedio

Deseables

1.⁠ ⁠Experiencia desarrollando sistemas de recomendación
2.⁠ ⁠Familiaridad con el ecosistema de datos de AWS (S3, Redshift, etc.)
3.⁠ ⁠Habilidad para crear visualizaciones de datos claras y efectivas
4. Nociones de MLOps para despliegue y monitoreo de modelos

Condiciones

  • Modalidad: Híbrida 💻​🏠​🏢​
  • Horario Flexible ⌚​📅​
  • Beneficios de Deporte ​🏋🏻‍♀️​🏃‍♀️​🏊🏿‍♂️​
  • Vacaciones Extra ​😎​⛱️​⛺​
  • Beneficios de estudio ​📚​👨‍🎓​👩‍🎓​
  • Beneficio de Adquisición de equipo 💻​🖱️​
  • Días administrativos 🗓️​
  • Cultura Horizontal y cercana 🤗​🙌​🤝

APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Desarrollador ETL ( Power Center)
  • BC Tecnología
  • Santiago (Hybrid)
Excel ETL Power Center Linux

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Funciones del cargo

Este perfil describe a una persona con habilidades técnicas en el manejo y administración de bases de datos, con un enfoque particular en SQL y desarrollo con PowerCenter, además de conocimientos en sistemas operativos Linux y scripting con Shell. Aquí te detallo cada aspecto:

  1. Conocimiento del manejo de bases de datos: Esta persona tiene experiencia en cómo funcionan las bases de datos, incluyendo la estructura de campos y tablas, lo que implica una comprensión de cómo se organiza y accede a la información dentro de una base de datos.
  2. Manejo de sentencias SQL: Es capaz de escribir y ejecutar sentencias SQL, que son comandos utilizados para interactuar con bases de datos, como para consultar, actualizar, insertar o eliminar datos.
  3. Experiencia en desarrollo con PowerCenter: PowerCenter es una herramienta ETL (Extracción, Transformación y Carga) que se utiliza para integrar datos de diferentes fuentes y transformarlos para su análisis o uso en otras aplicaciones. La persona tiene experiencia en proyectos que involucran PowerCenter, incluyendo la configuración de orígenes de datos y la parametrización de procesos ETL.
  4. Conocimiento medio de Excel: Tiene un nivel intermedio de habilidad en Excel, lo que sugiere que puede manejar funciones y fórmulas básicas a intermedias, y posiblemente realizar análisis de datos o crear reportes.
  5. Conocimiento de Shell y Linux: Está familiarizado con el uso de Linux y la escritura de scripts en Shell, lo que indica que puede automatizar tareas, gestionar archivos y sistemas, y posiblemente realizar operaciones administrativas en servidores Linux.

Requerimientos del cargo

📣 Chile - Desarrollador Power Center - Proyecto a 3 meses

✅ Requerimiento:

Experiencia:

Al menos 2 añis de experiencia en:

  • -Desarrollo Power Center ( referencia de proyectos), orígenes de datos y parametría.
  • -Conocimiento medio de Excel
  • -Conocimiento del manejo de base de datos, accesos a información, estructuras de campos y tablas
  • -Manejos de sentencias
  • -Conocimiento de Shell, Linux

Condiciones

✅ Condiciones:

  • -Contrato por proyecto a 2 meses
  • -Metodología de trabajo: Hibrido 2 a 3 veces por semana (las condes)
  • -Disponibilidad lunes a viernes
  • -Salario a convenir
  • -Beneficios (Seguro Complementario, Amipass $4.500 por día laborado, convenios, actividades, bonos)

APPLY VIA WEB
$$$ Full time
Analista PL/SQL / Transac SQL
  • Kibernum
  • Santiago (Hybrid)
SQL ETL PL/SQL
Kibernum es una compañía chilena con 30 años de experiencia, orientada a crear e implementar servicios IT de excelencia, con presencia en Chile y Colombia. La empresa se especializa en implementar servicios IT en diversos sectores como banca, retail, salud, gobierno, seguros, educación y telecomunicaciones. Actualmente, Kibernum cuenta con más de 1500 colaboradores y se enfoca en co-diseñar soluciones con un alto grado de involucramiento y compromiso con el negocio, lo que la convierte en un lugar ideal para profesionales que buscan crecer en el ámbito tecnológico.

Funciones del puesto

El Analista PLSQL / Transac-SQL será responsable de manejar bases de datos y crear procesos ETL a través de DTS (Data Transformation Services). Las principales responsabilidades incluyen:
  • Desarrollar y mantener procedimientos almacenados y funciones en PLSQL y Transac-SQL.
  • Crear y optimizar procesos ETL para la transformación y distribución de datos.
  • Colaborar con otros equipos para asegurar la calidad y eficiencia de los datos.
  • Realizar mapeo y transformación de datos según las necesidades del negocio.
Se busca un profesional con alta expertise en estas tecnologías que esté dispuesto a enfrentar nuevos desafíos.

Descripción del puesto

El candidato ideal debe cumplir con los siguientes requisitos:
  • Experiencia mínima de 2 años en PLSQL y Transac-SQL.
  • Conocimiento en la creación de procesos ETL, mapeo, transformación y distribución de datos.
  • Experiencia en la generación de procedimientos almacenados y funciones.
Se valorará la capacidad de trabajar en equipo y la habilidad para resolver problemas de manera efectiva. Además, se espera que el candidato tenga un enfoque proactivo y esté dispuesto a aprender y adaptarse a nuevas tecnologías y metodologías de trabajo.

Habilidades deseables

Se valorará el conocimiento en otras tecnologías de bases de datos y herramientas de ETL, así como la experiencia en entornos de trabajo ágiles. También se apreciará la capacidad de comunicación efectiva y la experiencia en proyectos similares.

Beneficios ofrecidos

Kibernum ofrece un ambiente de trabajo dinámico y colaborativo, con beneficios como seguro de salud, vida y dental, reajuste periódico en la remuneración, un plan de capacitación, y bonos por fiestas patrias y Navidad. Se invita a los interesados a enviar su CV y formar parte del equipo.

APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Consultor BI (Proyecto)
  • Genesys Tecncologias de Inform. SpA
  • Santiago (Hybrid)
Power BI Tableau BI Business Intelligence

Somos una empresa con 30 años en el mercado, contamos con servicios de fábrica de desarrollo de software y prestación de servicios de profesionales a través de Outsourcing, nuestra matriz está en Concepción y contamos con una operación en Santiago.

Estamos buscando un Consultor BI, talentoso y motivado para unirse a nuestro equipo. Su rol se centra en el análisis y la interpretación de grandes volúmenes de datos para proporcionar información valiosa que pueda mejorar la eficiencia operativa, identificar oportunidades de negocio y mejorar la toma de decisiones estratégicas

Funciones del cargo

Análisis de requisitos: Recolección de Necesidades - Documentación de requisitos
Diseño de soluciones BI - crear Modelado de datos
Desarrollo e Implementación : Creación de Dashboards y Reportes, Construcción de Procesos ETL.
Capacitación y soporte : Capacitación a Usuarios, Soporte Continuo
Gestión de Proyectos: Planificación y Ejecución, Coordinación de Equipos

Requerimientos del cargo

Manejo de Herramientas BI , herramientas de BI como **Tableau**, **Power BI**, **QlikView, Conocimiento y experiencia de Dataflows, Dataset, Dashboard, Power Query y DAX Capacidad para diseñar y desarrollar cuadros de mando, informes y visualizaciones interactivas

Conditions

Life insurance Genesys Tecncologias de Inform. SpA pays or copays life insurance for employees.
Dental insurance Genesys Tecncologias de Inform. SpA pays or copays dental insurance for employees.
Computer provided Genesys Tecncologias de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecncologias de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2500 - 4000 Full time
DataOps Senior
  • coderslab.io
Scrum Agile Kanban

En CodersLab actualmente nos encontramos en el crecimiento de los equipos apuntando a un crecimiento global que nos permita posicionarnos con nuestros productos en más países de Latinoamérica, por lo que estamos en búsqueda de un Desarrollador FullStack quien deberá ser una persona con mucha motivación y una especie de sexto sentido para comprender las necesidades del mercado.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

Habilidades Técnicas:

1.1. Datos:

  • Experiencia en ETL (Extract, Transform, Load).
  • Conocimiento en herramientas de gestión de datos como Apache Airflow, Step Functions, etc.
  • Experiencia en Python
  • Experiencia en PySpark
  • Experiencia en Bash
  • Experiencia en enmascaramiento de datos
  • Familiaridad con bases de datos relacionales (SQL) y no relacionales (NoSQL).
  • Dominio de Linux (especialmente distribuciones como Ubuntu) y, en menor medida, Windows Server.
  • Conocimiento de herramientas de monitoreo como Prometheus, Grafana, Nagios, Zabbix.

1.2. Cloud Computing:

  • Experiencia con plataformas en la nube como AWS, Azure, Google Cloud.
  • Conocimiento de servicios específicos como AWS S3, RDS, Lambda, EMR, Glue, Airflow, Redshift, DynamoDB, EKS, IAM, DMS, ECR, EC2, Athena .etc.
  • Conocimiento en la utilización de Apache Kafka para la ingesta de datos en tiempo real.
  • Experiencia en Snowflake
  • Conocimiento en DataBricks

1.3. Infraestructura como Código (IaC):

  • Conocimiento de herramientas como Terraform, CloudFormation.
  • Dominio de Git y sistemas de control de versiones distribuidos.
  • Dominio de Docker para crear, gestionar y desplegar contenedores.
  • Comprensión de la arquitectura de microservicios y cómo implementarla usando contenedores.

1.4. Automatización y CI/CD:

  • Experiencia en pipelines de integración y entrega continua.
  • Uso de herramientas como GitLab CI/CD, GitHub Actions, etc.

1.5. Seguridad y Gobernanza de Datos:

  • Conocimiento en normativas de privacidad de datos (GDPR, CCPA).
  • Implementación de prácticas de seguridad en la gestión de datos.
  • Conocimiento de prácticas de seguridad como el hardening de sistemas, gestión de identidades y accesos (IAM), VPNs.

Requerimientos del cargo

Habilidades Operativas:

2.1. Gestión de Proyectos:

  • Experiencia en metodologías ágiles como Scrum o Kanban.
  • Capacidad para planificar, ejecutar y supervisar proyectos.

2.2. Gestión de Incidentes:

  • Habilidad para manejar y resolver incidentes en tiempo real.
  • Conocimiento de prácticas de alta disponibilidad y recuperación ante desastres.

3. Habilidades de Gestión y Comunicación:

3.1. Colaboración Interdisciplinaria:

  • Capacidad para trabajar con equipos de desarrollo, operaciones, ciencia de datos, y negocio.

3.2. Comunicación Efectiva:

  • Habilidad para comunicar conceptos técnicos a audiencias no técnicas.
  • Capacidad para documentar procesos y prácticas de forma clara.

4. Habilidades Analíticas:

4.1. Resolución de Problemas:

  • Habilidad para identificar y resolver cuellos de botella en procesos de datos.

4.2. Pensamiento Crítico:

  • Capacidad para analizar procesos y sugerir mejoras continuas.

De antemano muchas gracias!

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2400 - 2700 Full time
Ingenieros de Datos en Brasil
  • BC Tecnología
SQL Python Scala Virtualization

Cencosud S.A. es una empresa presente en cinco países de América Latina (Chile, Argentina, Brasil, Perú y Colombia), Estados Unidos, China (con una oficina comercial) y Uruguay, donde cuenta con un Hub tecnológico, digital y de innovación. Sus operaciones se extienden a través de distintas líneas de negocios, entre ellas: Supermercados -el negocio principal de Cencosud-, Mejoramiento del Hogar, Tiendas por Departamento, Centros Comerciales y Servicios Financieros -mantiendo un Joint Venture en todos los países, excepto en Argentina.

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Funciones del cargo

  • Codificación: El dominio de los lenguajes de codificación es esencial para este rol, así que considera tomar cursos para aprender y practicar tus habilidades. Los lenguajes de programación más comunes son SQL, NoSQL, Python, Java, R y Scala.
  • Bases de datos relacionales y no relacionales: Las bases de datos se encuentran entre las soluciones más populares para el almacenamiento de datos. Debes estar familiarizado con las bases de datos relacionales y no relacionales, y con su funcionamiento.
  • Sistemas ETL (extracción, transformación y carga): El ETL (extraction, transformation, load) es el proceso mediante el cual se trasladan los datos de las bases de datos y otras fuentes a un único repositorio, como un almacén de datos. Las herramientas ETL más usuales son Xplenty, Stitch, Alooma y Talend.

Requerimientos del cargo

Al menos 3 años de experiencia en:

· Experiencia con Python

· Manejo de integraciones hacia APIs (python o scala). Preferible Python

· Manejo de SQL (Intermedio o Avanzado)

· Pyspark

· Manejo de Integraciones por (JDBC, ingesta de archivos, Automatizaciones con airflow)

· Conocimiento general de nube (Azure - GCP – AWS)

· Idioma Portugués y Español

· Trabajo Home Office

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Ingeniero de Datos con Experiencia en Google Cloud Platfor
  • coderslab.io
Web server SQL DevOps Erlang

En CodersLab actualmente nos encontramos en el crecimiento de los equipos apuntando a un crecimiento global que nos permita posicionarnos con nuestros productos en más paises de Latinoamérica, por lo que estamos en búsqueda de un ARQUITECTO O INGENIERO DE DATOS CON EXPERIENCIA EN GCP quien deberá ser una persona con mucha motivación y una especie de sexto sentido para comprender las necesidades del mercado.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

Postula para este tremendo desafío!

Funciones del cargo

Diseño de Arquitecturas de Datos: Crean arquitecturas escalables y flexibles para almacenar, procesar y analizar grandes volúmenes de datos utilizando servicios de GCP como BigQuery, Cloud Storage y Dataflow.
Modelado de Datos: Desarrollan modelos de datos que facilitan el análisis y la toma de decisiones. Esto incluye definir esquemas y estructuras de datos adecuadas para diferentes tipos de datos.
Integración de Datos: Implementan soluciones para la ingestión de datos desde diversas fuentes, utilizando herramientas como Cloud Pub/Sub, Cloud Data Fusion o Dataflow. También se encargan de la limpieza y transformación de los datos.
Optimización de Consultas y Rendimiento: Trabajan en la optimización de consultas en bases de datos y en la configuración de la infraestructura para garantizar el rendimiento óptimo de las consultas y procesos de análisis.
Seguridad y Cumplimiento: Aseguran que las arquitecturas de datos cumplan con las regulaciones y políticas de seguridad, implementando medidas de protección de datos y control de acceso.
Colaboración Interdisciplinaria: Colaboran con equipos de desarrollo, ciencia de datos, analistas de negocio y otras partes interesadas para entender las necesidades de datos y traducirlas en soluciones efectivas.
Implementación de Servicios de Machine Learning: Integran servicios de machine learning en GCP, como AI Platform, para desarrollar modelos predictivos y analíticos.

Requerimientos del cargo

1. Conocimientos en Google Cloud Platform (GCP):

2. Modelado de Datos:

  • Experiencia en diseño y modelado de bases de datos tanto relacionales como no relacionales.
  • Conocimiento sobre normalización y denormalización de datos.

3. Herramientas de ETL/ELT:

  • Experiencia con herramientas de integración de datos, como Google Data Fusion, Apache Beam, Talend, o similares.

4. Lenguajes de Programación:

  • Dominio de SQL
  • Conocimiento en lenguajes como Python o Java para procesamiento de datos y desarrollo de scripts.

5. Arquitectura de Datos:

  • Habilidad para diseñar arquitecturas de datos escalables y eficientes.
  • Comprensión de la arquitectura de microservicios y diseño de API.

6. Gestión de Datos y Gobernanza:

  • Conocimientos sobre políticas de seguridad y privacidad de datos.
  • Experiencia en la implementación de prácticas de calidad de datos.

7. Análisis y Visualización de Datos:

  • Familiaridad con herramientas de visualización de datos como Google Data Studio, Looker u otras.
  • Habilidad para traducir requisitos de negocio en soluciones analíticas.

8. Conocimientos de DevOps:

  • Conocimiento en CI/CD, contenedores (Docker) y herramientas de orquestación (Kubernetes) en el contexto de GCP.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1600 - 2600 Full time
Business Analyst
  • Kibernum
Product Owner Agile English Business Analyst

Kibernum, a leading tech company with a strong presence in Chile, Peru, Colombia, and the USA, is on the lookout for a talented Business Analyst (BA) to join our dynamic team. With over 30 years in the market, we pride ourselves on delivering top-quality services and driving digital evolution with a workforce of over 1500 professionals. 🖥️💡

What You’ll Do:

🔍 Analyze and understand cash management products.

  • 🤝 Collaborate with business units and tech experts to gather requirements, design solutions, and draft functional specifications.
  • 🔗 Act as the liaison between Product Partners and Technology, ensuring seamless communication.
  • 💡 Advise on client requirements, business processes, and inefficiencies, identifying areas for improvement.
  • 🔄 Lead process design changes and drive them through analysis and execution.
  • 🌟 Build and maintain strong collaborative relationships across one or more functional teams.
  • 🗂️ Develop project plans and provide guidance and leadership to Product Owners.
  • 📝 Negotiate and align the needs and expectations of various stakeholders, fostering healthy relationships.
  • 🚀 Collaborate on business strategy roadmaps and define KPIs for new product commercialization.

What We’re Looking For:

🏦 Minimum of 2 years’ experience as a Business/Product Analyst in financial institutions.

  • 💪 Strong negotiation skills and demonstrated business process expertise.
  • 📊 Project leadership experience, including creating project plans, task allocation, and issue tracking.
  • Commitment to quality and efficiency.
  • 🎯 Excellent multitasking skills, capable of managing issues, time, and priorities effectively.
  • 🌀 Experience in Agile environments as a project leader or Product Owner.
  • 💼 Technical knowledge of cash management products.
  • 💬 Conversational English proficiency.
  • 📈 Familiarity with Agile methodologies.

Nice to Have:

🧩 Experience in business process modeling.

  • 💳 Familiarity with the banking industry and markets.
  • 💻 Advanced PC skills, especially Excel.
  • 🔒 Experience in data security concepts.

Why Kibernum?

📝 Permanent contract from day one.

  • 🏠 100% remote work (Chile residents only).
  • 💼 Competitive benefits including insurance, bonuses, and salary adjustments.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Kibernum pays or copays life insurance for employees.
Health coverage Kibernum pays or copays health insurance for employees.
Dental insurance Kibernum pays or copays dental insurance for employees.
Computer provided Kibernum provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Analista de Datos
  • NTT DATA Europe & LATAM
  • Temuco (Hybrid)
SQL MongoDB ETL Power BI
¡Únete a nuestro equipo de #DigitalLovers como Analista de Datos!
NTT DATA Chile es una empresa multinacional que ofrece un ambiente de trabajo inclusivo y respetuoso, donde cada persona es valorada por su Uniqueness🌈
Somos un equipo de más de 139.000 profesionales apasionados por la tecnología que trabajan en proyectos de vanguardia en diversos sectores, incluyendo telecomunicaciones, finanzas, industria, servicios públicos, energía, sector público y salud.

Funciones del cargo

Requerimientos del cargo

Formación Académica:
  • Título universitario o técnico en áreas como Ingeniería Civil Informática, Ciencias de la Computación, Programación, Ingeniería en Telecomunicaciones o carreras afines.
Experiencia:
  • Experiencia de al menos 3 años como Analista de Datos
Conocimientos Técnicos:
  • SQL Avanzado
  • Mongo DB
  • Herramientas ETL
  • Deseable: Herrameinta Visualización de Datos(Power BI, Looker, otros), Ingles
Excluyente:
  • Residencia fuera de la region Metropolitana, de O´Higgins o Valparaiso

Opcionales

  • Deseable: Herrameinta Visualización de Datos(Power BI, Looker, otros), Ingles

Conditions

Partially remote You can work from your home some days a week.
Health coverage NTT DATA Europe & LATAM pays or copays health insurance for employees.
Computer provided NTT DATA Europe & LATAM provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Research Analyst
  • ICONSTRUYE
Excel SQL Research Ingeniero Comercial
¡Súmate a nuestro equipo! Estamos buscando a nuestro próximo/a Product Owner de clientes en iBuilder Chile. Somos una importante empresa líder en software de construcción, con operaciones en Chile, Perú y México con amplia experiencia en el rubro, enfocada en la gestión y en el aumento de la productividad en proyectos de la construcción.
Tu misión principal: Serás responsable del producto worker/ management/ on-site, con el objetivo principal de obtener el máximo valor del producto/servicio. Encargado de generar capacitaciones, seguimiento telefónico y por correo, con el objetivo de mantener fidelizados a clientes de su producto.

Tus principales funciones:

  • Desarrollo de modelos de valoración a través de Excel con la construcción de flujos de caja proyectados, análisis de sensibilidad y escenarios financieros.
  • Crear de modelos financieros para evaluar la rentabilidad de proyectos inmobiliarios, utilizando herramientas y funciones avanzadas de Excel como tablas dinámicas, macros y VBA.
  • Elaborar informes de valorización y/o tasaciones, asegurando la precisión y cumplimiento de las normas internacionales de valorización (IVS), IFRS, y las normas chilenas Nch3658/1:2021 y Nch3658/2:2022.
  • Realizar estudios del mercado inmobiliario para identificar tendencias, oportunidades y riesgos mediante la recopilación y análisis de datos de diversas fuentes.
  • Mantenerse actualizado con las tendencias del mercado, políticas gubernamentales y cambios en la legislación que puedan afectar el sector inmobiliario.
  • Desarrollar informes de mercado detallados que incluyan análisis de la competencia, análisis de Fortalezas, Debilidades, Oportunidades y Amenazas (FODA) y proyecciones de crecimiento del mercado.
  • Administrar y procesar grandes volúmenes de datos utilizando herramientas de análisis de datos como SQL, Python y R. Limpiar, organizar y mantener bases de datos actualizadas, asegurando la integridad y precisión de los datos.
  • Crear visualizaciones de datos efectivas mediante el uso de software de visualización como Power BI para facilitar la interpretación de la información por parte de los interesados.
  • Crear presentaciones visualmente atractivas y persuasivas para comunicar análisis, hallazgos y recomendaciones a los clientes.
  • Asegurar la claridad y coherencia de la información presentada, adaptándola a la audiencia objetivo.
  • Coordinar y supervisar el proceso de estudios y valorizaciones inmobiliarias, asegurando que se realicen todas las verificaciones necesarias. Disponibilidad para viajes eventuales dentro y/o fuera del país.

Requerimientos del cargo

  • Formación: Arquitecto, Ingeniero Comercial, Ingeniero Civil o carrera afín
  • Experiencia: 2 años
  • Conocimientos: Conocimientos de las normas internacionales de valorización (IVS), IFRS, Norma Chilena de tasaciones Nch3658/1:2021 y Nch3658/2:2022
  • Deseables: Excel intermedio/avanzado y manejo de herramientas Office. Familiaridad con herramientas SQL y consulta a bases de datos.

Beneficios

  • 5 días extras de descanso.
  • Tarjeta amipass para ser utilizada en restaurant, delivery y supermercados.
  • Seguro complementario de Salud, Dental y de Vida.
  • Modalidad de trabajo híbrida.
  • 3 días teletrabajo, 2 presencial. (Las Condes)
  • Flexibilidad con permisos relacionados a trámites y/o asuntos familiares
  • En época de vacaciones de invierno y de verano (escolares) los viernes se trabaja medio día.
  • Tarde libre el día de tu cumpleaños Charlas internas (Toc Talks) en horario laboral.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Analista de Datos
  • Kibernum
Web server SQL Python BigQuery

Kibernum, es una de las empresas líderes en tecnología presente en Chile, Perú, Colombia y USA.🌍Llevamos más de 30 años en el mercado entregando servicios de calidad y gran valor agregado a nuestros clientes, por lo que nos encontramos muy bien posicionados.😎

En KIBERNUM nos mueve instalar capacidades flexibles, a través del mejor talento tech del mundo, para impulsar la evolución digital. Actualmente contamos con una dotación que supera los 1500 colaboradores, cuyas áreas de expertise se destacan entre otras: tech, Staffing, IT Academy y Agile Delivery. 🤟

Descripción del puesto:

Analista de Datos
En nuestra empresa Kibernum, nos encontramos en la búsqueda de un Analista de Datos para unirse a nuestro equipo de Tecnología, Sistemas y Telecomunicaciones en Santiago de Chile, Región Metropolitana, Chile. Como empresa líder en tecnología con más de 30 años de experiencia, nos enfocamos en brindar servicios de calidad y gran valor agregado a nuestros clientes.

  • Como Analista de Datos, serás responsable de analizar, interpretar y visualizar datos para identificar tendencias, patrones y oportunidades de mejora.
  • Trabajarás en estrecha colaboración con diferentes áreas de la empresa para entender las necesidades de información y contribuir al desarrollo de soluciones basadas en datos que impulsen la toma de decisiones estratégicas.
  • Buscamos a un profesional apasionado por los datos, con sólidos conocimientos en herramientas de análisis y visualización, así como habilidades para comunicar de manera efectiva hallazgos complejos a diferentes audiencias.
  • Será valorado contar con experiencia previa en proyectos de análisis de datos y en la creación de reportes y dashboards.
  • Si te consideras una persona analítica, proactiva y orientada a resultados, ¡te invitamos a formar parte de nuestro equipo como Analista de Datos y contribuir al crecimiento y éxito de nuestra empresa!

Requerimientos del cargo

  • Experiencia en ingeniería y análisis de datos
  • Experiencia en GCP (BigQuery, AirFlow, GKE)
  • Competencia en lenguajes de programación: Python, Java, SQL
  • Conocimiento en frameworks: Apache Spark, Apache Hadoop, DBT

Beneficios

  • Seguro de salud, vida y dental.
  • Reajuste periódico de remuneración.
  • Plan de capacitación continua.
  • Bonos por Fiestas Patrias y Navidad.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Data Scientist Bilingüe – Contrato Indefinido
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python Virtualization Power BI

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en Servicios Financieros, Tecnología, Banca, Educación, Seguros, Retail y Gobierno.

Evaluar, diseñar y proponer iniciativas relacionadas a procesos, sistemas y/o tecnologías, realizando el levantamiento y análisis funcional/técnico de los requerimientos, de acuerdo a las normas y procedimientos vigentes, con el objetivo de mantener la continuidad operacional de los servicios de TI de la Corporación y entregar un servicio de calidad a las áreas usuarias.

Funciones del cargo

  • Líder tecnológico dentro del equipo, en búsqueda constante de nuevas y mejores formas de trabajar adoptando y probando las nuevas herramientas cloud disponibles, con especial foco en Google Cloud Platform (Suite Corporativa).
  • Definir en conjunto con el equipo de Ingeniería de datos el Universo de información donde se acota un problema de negocio.
  • Data Wrangling: Construir la estructura de los datos para optimizar su manipulación.
  • Feature Engineering: Mejorar la calidad de los datos mediante construcción de características (o atributos), para aumentar la cantidad de conocimiento que aportan los datos para la resolución del problema.
  • Modelamiento: Determinar la técnica de análisis adecuada para calzar con el problema de negocio a tratar.
  • Delivery: Comunicar en el contexto, en tiempo y forma la mejora de proceso que se está buscando resolver.
  • Feedback: Mejorar mediante el método científico el proceso de construcción de conocimiento y participar en la evaluación si existió una mejora al proceso abordado, mediante método científico.
  • Documentación: Registrar los logros, nuevos conocimientos, tecnologías o problemas del proceso en general.

Requerimientos del cargo

Al menos 3 años de experiencia en:

· Métodos numéricos de optimización (programación lineal, programación entera, programación cuadrática, etc.)

· Métodos estadísticos avanzados y mejores prácticas técnicas de modelado avanzadas (modelos gráficos, inferencia bayesiana, nivel básico de PNL, Visión, redes neuronales, SVM).

· Python, SQL, No SQL, programación.

· Experiencia con GCP, AWS o alguna cloud. Power BI, Tableau, streamlit o herramientas afines de visualización. Herramientas de versionamiento (GIT)

· Ingles Avanzado hablado

· Trabajo Hibrido (1 día presencial)

Condiciones

Seguro complementario Salud (Gratis para el trabajador)
Seguro de Vida
Kon3cta Dodo (Beneficio de Salud, donde podran acceder a valores preferenciales en las siguientes disciplinas:
Psicologia
Nutricion
Fonoaudiologia
Kinesiologia
Coaching
Ademas cuenta con un area legal
Amipass $4.500 diario
Sala cuna $350.000
Bono Cuidadora $350.000
Bono Escalaridad $40.000
Bono por Natalidad $200.000
Bono por Matrimonio $200.000
Bono por Fallecimiento Conyuge - Hijo $500.000
Bono por Fallecimiento Padres - Hermanos $200.000
Celebración Aniversario
Aguinaldo Fiestas Patrias y Navidad $80.000
1 Día libre por cumpleaños
Convenio Open English
Convenio con Clinica Eigner
Mutual de Seguridad
Caja de compensación los Andes
Capacitaciones Platzi
Dias Administrativos 2
Día de mudanza 1

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
SQL Analytics Python BigQuery

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
APPLY VIA WEB
$$$ Full time
Data Analyst Junior🚀
  • Kibernum
SQL Python Virtualization ETL
Kibernum, es una de las empresas líderes en tecnología presente en Chile, Perú, Colombia y USA.🌍Llevamos más de 30 años en el mercado entregando servicios de calidad y gran valor agregado a nuestros clientes, por lo que nos encontramos muy bien posicionados.😎
En KIBERNUM nos mueve instalar capacidades flexibles, a través del mejor talentotech del mundo, para impulsar la evolución digital. Actualmente contamos con una dotación que supera los 1500 colaboradores, cuyas áreas de expertise se destacan entre otras: tech, Staffing, IT Academy y Agile Delivery. 🤟

Funciones del cargo

¿Cuáles serán tus principales responsabilidades? 🤔
- Desarrollo y automatización con servicios de AWS para cliente de Banco, trabajando para las áreas de Big Data, Gobierno de Datos y Analítica Avanzada.
- Automatización de tareas según necesidades del cliente, soluciones cloud y on-premise.
- Desarrollo de Data Pipelines utilizando PySpark, AWS Glue y S3.
- Migración de procesos ETL con Informatica ETL, AWS Lambda y Step Functions.

Requerimientos del cargo

¿Qué requerimos de ti para hacer un buen match? 💘

-Profesionales de carreras como Ingeniería en Informática, Ingeniería Civil Informática o carrera afín.
- Experiencia formalmente como Data Analyst entre 1 y 2 años.
-Sólidos conocimientos y manejo en SQL (Nivel avanzado).
- Sólidos conocimientos y manejo en Python ( Medio - Avanzado).
- Manejo en cloud AWS.
- Manejo en visualización de datos en Power BI.
- Manejo en desarrollo de Data Pipelines utilizando PySpark, AWS Glue y S3.
- Manejo en Migración de procesos ETL con Informática ETL, AWS Lambda y Step Functions.

Opcionales

¿Qué te haría sumar aún, mayor puntitos o te daría un plus con nosotros?😍
- Especialización en Big Data (No excluyente).
- Conocimientos en realizar confecciones en Guiones Shell (No excluyente).
- Experiencia rubro de Banca.

Condiciones

Algunos de Nuestros Beneficios❤️
1. Contamos con seguro de vida, salud y dental. 💛
2. Reajuste periódico en tu remuneración .💲
3.Días de permiso por nacimiento de hijos.
4. Si te gusta constantemente seguir aprendiendo y perfeccionando tus conocimientos tenemos planes de capacitaciones.😏
5.Convenios cursos de inglés (dsctos que van de un 70% a un 85% según el curso y modalidad elegida).
6. Convenios preferenciales con Gimnasios.
7.Atractivos descuentos con diferentes marcas y/o productos (ópticas, telefonía, florerías, chocolaterías, etc).
8.Días de permiso por contraer matrimonio o unión libre.
9.Servicio de radio taxi.
10. Bonos por fiestas patrias, navidad y más!!
!Conversemos y entérate de los otros beneficios!🥳

Wellness program Kibernum offers or subsidies mental and/or physical health activities.
Life insurance Kibernum pays or copays life insurance for employees.
Health coverage Kibernum pays or copays health insurance for employees.
Dental insurance Kibernum pays or copays dental insurance for employees.
Computer provided Kibernum provides a computer for your work.
Fitness subsidies Kibernum offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Shopping discounts Kibernum provides some discounts or deals in certain stores.
Parental leave over legal Kibernum offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Analista Financiero
  • MATCH · Agencia-consultora
  • Santiago (Hybrid)
Excel Power BI Ingeniero Comercial Data Analysis

Nos encanta diseñar y crear productos digitales, asesorando a cada cliente en sus decisiones de negocio. Para ello, contamos con servicios de investigación UX, diseño UI, desarrollo, branding y marketing digital 💻.

Las metodologías y el trabajo en equipo son para nosotros los pilares fundamentales de cualquier proyecto, creemos que gracias a la participación activa conseguimos resultados extraordinarios, ya que cada opinión, experiencia y/o conocimiento es clave para retro-alimentar nuestro equipo y superarnos día a día 🚀

Funciones del cargo

Buscamos un Analista Financiero talentoso y motivado para unirse a nuestro equipo. El candidato ideal tendrá una sólida formación en finanzas, contabilidad y análisis de datos. Será responsable de realizar análisis financieros complejos, desarrollar modelos financieros y proporcionar información crítica a la gerencia para la toma de decisiones estratégicas.

Tareas y responsabilidades clave:

  • Recopilar y analizar datos financieros de diversas fuentes.
  • Desarrollar y mantener modelos financieros para pronosticar tendencias, evaluar inversiones y optimizar la rentabilidad.
  • Realizar análisis de ratios financieros para evaluar la salud financiera de la empresa.
  • Preparar informes financieros detallados Mensuales y presentaciones para la gerencia.
  • Identificar y evaluar riesgos financieros.
  • Colaborar con otros departamentos en la elaboración de presupuestos y planes financieros.
  • Mantenerse actualizado sobre las últimas tendencias y regulaciones financieras.
  • Identificar áreas de mejora en la rentabilidad de la empresa.
  • Proporcionar recomendaciones para mejorar la eficiencia financiera y reducir los costos.
  • Evaluar la rentabilidad de las inversiones y asesorar sobre decisiones de inversión.
  • Realizar análisis de mercado y competidores para identificar oportunidades de crecimiento.
  • Comunicar los resultados de su análisis a la dirección y otros miembros del equipo financiero.

Requerimientos del cargo

Requisitos:

  • Debe contar con Título Profesional de Ingeniero Comercial, Administración o Civil I.
  • Mínimo dos años de experiencia en análisis de datos en el área de finanzas.
  • Dominio avanzado de Excel (excluyente) para realizar análisis complejos y manipular diversos conjuntos de datos provenientes de distintas fuentes.
  • Conocimientos de Power BI (excluyente) para crear visualizaciones interactivas y proporcionar información valiosa a los tomadores de decisiones.
  • Excelentes habilidades analíticas y de resolución de problemas.
  • Sólidas habilidades de comunicación oral y escrita.
  • Capacidad para trabajar de forma independiente y como parte de un equipo.
  • Fuertes habilidades analíticas y capacidad para trabajar con grandes cantidades de datos.
  • Conocimiento profundo de los principios contables y financieros.
  • Excelentes habilidades de comunicación y capacidad para presentar información compleja de manera clara y concisa.
  • Orientación a resultados y capacidad para tomar decisiones basadas en datos.
  • Habilidad para trabajar bajo presión y en un entorno cambiante.
  • Capacidad para trabajar en equipo y colaborar con otros departamentos.

Condiciones

  • Un equipo colaborativo, con foco en trabajar en equipo
  • Capacitaciones al cumplir al menos seis meses en este Team ‍
  • Computador, acorde a tus tareas
  • Espacio para charlas/talleres internos ️
  • Tarde libre de cumpleaños

APPLY VIA WEB
$$$ Full time
Analista de Cuentas Médicas /Bogotá
  • Kibernum
  • Bogotá (In-office)
Excel

Kibernum, es una de las empresas líderes en tecnología presente en Chile, Perú, Colombia y USA.🌍Llevamos más de 30 años en el mercado entregando servicios de calidad y gran valor agregado a nuestros clientes, por lo que nos encontramos muy bien posicionados.😎

En KIBERNUM nos mueve instalar capacidades flexibles, a través del mejor talentotech del mundo, para impulsar la evolución digital. Actualmente contamos con una dotación que supera los 1500 colaboradores, cuyas áreas de expertise se destacan entre otras: tech, Staffing, IT Academy y Agile Delivery. 🤟

Funciones del cargo

En búsqueda de talento para nuestra empresa líder en la industria BPO a nivel nacional, estamos emocionados de abrir la vacante para un Analista de Información BPO.

  • Análisis de cuentas médicas.
  • Gestión de bases de datos.
  • Trabajo con archivos txt y Excel avanzado.

Requerimientos del cargo

Técnico, tecnólogo o profesional en carreras afines a sistemas.

  • Experiencia mínima de 2 años en empresas del sector BPO.
  • Destreza en análisis de cuentas médicas, manejo de bases de datos y Excel avanzado.

Condiciones

Modalidad de trabajo: presencial en Bogotá.

  • Horario: Lunes a viernes con disponibilidad para algunos sábados.
  • Contrato a término indefinido (directo con la empresa).

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
$$$ Full time
Analista de Datos Junior
  • Kibernum
  • Santiago (Hybrid)
Excel SQL Python Power BI

Kibernum, es una de las empresas líderes en tecnología presente en Chile,Perú, Colombia y USA.🌍Llevamos más de 30 años en el mercado entregando servicios de calidad y gran valor agregado a nuestros clientes, por lo que nos encontramos muy bien posicionados.😎.

En KIBERNUM nos mueve instalar capacidades flexibles, a través del mejor talento tech del mundo, para impulsar la evolución digital. Actualmente contamos con una dotación que supera los 1500 colaboradores, cuyas áreas de expertise se destacan entre otras: tech, Staffing, IT Academy y Agile Delivery. 🤟

Estamos en búsqueda de un Analista de Datos Junior con al menos 1 año de experiencia para unirse a nuestro equipo. El candidato ideal deberá tener habilidades sólidas en el manejo de herramientas como Power BI, SQL y Python, además de una comprensión profunda de las necesidades del cliente a través del análisis de datos.

Funciones del cargo

  • Experiencia en el manejo de herramientas a nivel intermedio, incluyendo Power BI, SQL y Python.
  • Realizar requerimientos de reportería y automatización del área de EB.
  • Comprender las necesidades de los clientes a través del análisis de datos.
  • Generar reportes en Power BI, incluyendo extracción de datos, modelado de datos, creación de medidas y generación de vistas.
  • Automatizar procesos a través de Python.
  • Realizar consultas en SQL para el análisis de datos.
  • Manejo de herramientas de oficina a nivel intermedio, incluyendo Excel y Power Point.
  • Conocimiento de inglés deseable.

Requerimientos del cargo

  • Experiencia mínima de 1 año como Analista de Datos.
  • Competencia en Power BI, SQL y Python.
  • Habilidades avanzadas en Excel y Power Point.
  • Capacidad para comprender y satisfacer las necesidades de los clientes.
  • Fuertes habilidades analíticas y de resolución de problemas.
  • Capacidad para trabajar de manera autónoma y en equipo.

Condiciones

  • Modalidad Hibrida
  • Reajuste salarial por IPC trimestral
  • seguro de salud anual por UF 500 y un seguro de vida por UF 500 anual.
  • Además, te cubrimos en casos catastróficos con UF 700.
  • Aguinaldos en UF en Fiestas Patrias y Navidad

Health coverage Kibernum pays or copays health insurance for employees.
Computer provided Kibernum provides a computer for your work.
APPLY VIA WEB
Gross salary $1200 - 1500 Full time
Ingeniero Jr. | ETL
  • Kibernum
SQL ETL Data Warehouse

Kibernum Chile, Compañía Chilena con 30 años de experiencia en el mercado TI y a través del sourcing global tenemos la capacidad de contar con un ecosistema global IT, que impacta directamente en el negocio de nuestros clientes. Juntos podemos experimentar, para transformar su cultura y abordar con audacia los desafíos actuales.

En Kibernum estamos en búsqueda de un Ingeniero Jr.

Funciones del cargo

Si eres un apasionado por el mundo ETL y quieres desafiar tus habilidades, esta es tu oportunidad. Buscamos un Ingeniero ETL JR. para integrarse a nuestro equipo innovador.

FUNCIONES DESTACADAS:

· Levantamiento de requisitos para proyectos ETL.

· Diseño, construcción e implementación de procesos de Extracción, Transformación y Carga de Datos.

· Apoyo en el mantenimiento y mejoras de ETL’s existentes.

· Generación de reportes y documentación para respaldar la operación continua de los procesos ETL.

Requerimientos del cargo

REQUISITOS INDISPENSABLES:

· Experiencia mínima de 2 años en el mundo ETL.

· Titulación en Ingeniería en Informática o similar.

HERRAMIENTAS A DOMINAR:

· BD/SQL.

· ETL.

· SSIS.

· Data Warehouse.

· Data Mart.

Opcionales

CONOCIMIENTOS DESEABLES:

· Business Intelligence.

· PowerBI.

Condiciones

OFRECEMOS:

· Contrato por Proyecto hasta Febrero 2024, con posibilidad de extensión por 1 mes.

· Modalidad remota (Solo el primer día es presencial).

· Horario de Lunes a Viernes de 08:30 a 17:30.

· Ubicación en Santiago Centro.

APPLY VIA WEB
$$$ Full time
Analista de Datos
  • Forma - Moovmedia Group
Marketing Analytics Python Power BI

¡Hola! Somos Analytics y somos parte de Moovmedia Group, una familia de empresas que también integran Metrix, Forma y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente..

Hoy queremos seguir creciendo y para eso buscamos un Analista de Datos que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te gustaría sumarte a nuestro equipo?

Funciones del cargo

Características del puesto

• Analizar grandes volúmenes de datos por medio de técnicas de analítica avanzada, con el objetivo de encontrar patrones de conducta en base a perfiles de clientes o categorías de productos.
• Levantar, diseñar y activar flujos de marketing automatizado para los diferentes perfiles de clientes (Buyer Persona).
• Generar reportes automatizados que permitan analizar la performance de los diferentes perfiles de clientes y su relación con los productos consumidos.
• Automatizar procesos de análisis y visualización de resultados comerciales, de marketing, de gestión o de procesos, de manera clara para las distintas contrapartes.
• Presentar resultados a clientes internos y externos, por medio de herramientas de visualización.

Requerimientos del cargo

Sociólogos, ingenieros civiles o comerciales
1 a 2 años en cargo similares (analytics)

Requisitos excluyente:
- Conocimientos intermedios/ avanzados en R o Python para análisis de datos (clusterización, regresiones, árboles de decisión, etc.)
- Manejo intermedios / avanzados de herramientas de visualización, tales como Tableau, Power BI o DataStudio

- Deseable interés en marketing digital y áreas comerciales en general

Condiciones

Dias administrativos
Dia de Cumpleaños
Convenio con plataforma Dodo
Regalo de antiguedad

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1000 - 1700 Full time
Data Analyst
  • BC Tecnología
  • Trujillo (Hybrid)
SQL Analytics Python Power BI

Somos una consultora de Servicios IT. Administramos portafolio, desarrollamos proyectos, realizamos outsourcing y selección de profesionales.

Creamos equipos de trabajos ágiles para áreas de Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio, en clientes de servicios financieros, seguros, retail y gobierno.

Desde hace 10 años diseñamos soluciones acorde a las necesidades de nuestros clientes. Nuestras principales áreas de negocio son:

- Consultoría y diseño de soluciones.
- Formación de equipos de trabajo, outsourcing de personal.
- Desarrollo de proyectos.
- Servicios de soporte y administración IT

Tenemos un enfoque claro en el cliente, metodologías ágiles, cambio organizacional y desarrollo de productos.

Funciones del cargo

- Realizar las coordinaciones y/o desarrollar herramientas analiticas a partir de datos:
reportes/dashboards/KPIs
- Monitoreo de requerimientoy proyectos de gestion de datos
- Documentar el desarrollo de proyectos y mejoras relacionadas a gestion de datos
- Participar en el levantamientode nuevos requerimientos de datos sobre la plataforma de gestion de informacion : Datawarehuose y Datalake corporativo

Requerimientos del cargo

✅ Requerimiento:

Formación:

  • Bachiller o titulado en Ing. de Sistemas , informatica, industriali a fines
  • Especializacion o experiencia en Business Intelligence , Data Analytics y/o Big Data

Experiencia:

  • -Al menos 2 años de experiencia en el rol
  • -Conocimiento de Python
  • -Experiencia en Power BI , SQL
  • -Conocimiento en ERP SAP basico
  • -Ingles intermedio deseable

Condiciones

✅ Condiciones:

  • -Contrato renovable cada 6 meses directo con cliente
  • -Compañía del sector financiero y mercado de valores
  • -Metodología de trabajo: Hibrido 1 a 2 días remoto (Trujillo Provincia)
  • -Disponibilidad lunes a viernes 8:00 a 18:00h
  • -Salario a convenir hasta 6.500 soles

APPLY VIA WEB