Malt welcome

Welcome to Juan Carlos's freelance profile!

Malt gives you access to the best freelancers for your projects. Contact Juan Carlos to discuss your project or search for other freelancer profiles on Malt.

Juan Carlos Gomez

Arquitecto Datos / Data Engineer / Snowflake
1 project
  • Suggested rate
    €460 / day
  • Experience15+ years
  • Response rate100%
  • Response time2 hours
The project will begin once you accept Juan Carlos's quote.
Location and workplace preferences
Location
Madrid, España
Remote only
Primarily works remotely
Verifications

Freelancer code of conduct signed

Read the Malt code of conduct
Verified email
Languages
Categories
These freelancer profiles also match your search criteria
Agatha FrydrychAF

Agatha Frydrych

Backend Java Software Engineer

Baptiste DuhenBD

Baptiste Duhen

Fullstack developer

Amed HamouAH

Amed Hamou

Senior Lead Developer

Audrey ChampionAC

Audrey Champion

Web developer

Skill set
Juan Carlos in a few words
Soy especialista en soluciones de business intelligence por más de 10 años. Ayudo a las empresas a diseñar e implementar soluciones exitosas de BI desde el diseño de la arquitectura, modelado de datos, diseño y desarrollo de procesos ETL y ELT, realizando la ingesta y transformación de datos hasta la generación de dashboards visualizando indicadores que requiere el cliente utilizando Power BI.

Tengo amplia experiencia en Snowflake para definir politicas de seguridad, roles y permisos, realizar ingestas de datos ya sea batch, near realtime y realtime como el uso de politicas de enmascaramiento y politicas de acceso a datos por fila.

Trabaje en diferentes proyectos de implementacion de Data lakes/Data Warehouse ya sean clouds u on-prem utilizando 4 capas (BRONZE, SILVER, GOLD, GOLD AUTOCONSUMO), desde el diseño de la arquitectura, desarrollo de framework de ingestas y aplicacion de reglas de calidad, arquitectura y desarrollo de procesos ETLs haciendo uso de los diferentes servicios que provee Snowflake. Definicion y generacion de politicas de seguridad y roles, politicas de enmascaramiento y acceso a datos.

Soy también scrum master certificado, lo que me permitió liderar equipos de desarrollo, utilizando metodologías agiles, identificando los requerimientos funcionales y técnicos, estableciendo objetivos, roles del equipo, asignación y seguimiento de las tareas asignadas.

Tengo amplia experiencia en el relevamiento de requerimientos, análisis y desarrollo de software en diferentes tecnologías e industrias.

Listado de las tecnologías que manejo:

- SSIS / Data Factory / Talend / Databricks / Synapse / Storge Account / Event Hub / Stream Analytics / S3 / AWS Lambda / Snowflake / SQL Server / PostgreSQL.
- Power BI.
- T-SQL, SP, Triggers, Views, Jobs.
- Shell Scripts.
- .Net Developer (VB.Net/C#) | .Net Core | Web Development

Experience
  • SOFTTEK - Spain
    Arquitecto de datos Snowflake
    October 2024 - November 2024 (1 month)
    Madrid, España
    Desarrollle una POC o prueba de concepto que permita probar los diferentes tipos de ingesta que tiene Snowflake ya sea batch, near realtime y realtime junto con un analisis de costos, latencia, performance para almacenar grandes volumnes de informacion. Para esto se configuro un ambiente de desarrollo en Snowflake con la creacion y configuracion de warehouses, roles, permisos y objetos de base de datos, se definio un stage donde acceder a datos de S3, se crearon buckets en S3 junto a roles y policies en AWS que permitan ser visibles desde Snowflake y se configuro las notificaciones de S3 para ingestar en near realtime usando Snowpipep de Snowflake. Se crearon politicas de enmascaramiento a nivel columna y politicas de acceso a datos a nivel filas. Para la ingesta en batch se utilizo COPY, para la ingesta en near realtime se utilizo Snowpipe y para la ingesta en Realtime se utilizo un programa Java que ingestaba a razon de 60.000 registros por segundo y rafagas de 2.000 registros por segundo a traves de la API de Snowflake. La informacion se guardo tanto en tablas como tablas dinamicas para evitar procesos ETL que pasen la informacion de capa BRONZE a SILVER y GOLD. Esta ultima capa se creo para poder explotar la informacion ingestada.
    Data Warehouse Big Data ETL Snowflake Business intelligence Data Engineer
  • Singular Bank
    Data Architect / Data Engineer
    BANKING & INSURANCE
    August 2022 - Today (2 years and 6 months)
    Madrid, España
    Arquitecto de datos en Singular Bank

    - Desarrollo e implementacion del Data Lake corporativo del banco utilizando sus diversas capas.
    - Desarrollo e implementacion del Data Warehouse corporativo del banco sobre Snowflake.
    - Analisis y desarrollo de toda la arquitectura del Data Lake y Data Warehouse (seguridad, definicion de roles, permisos, estructura de carpetas de las capas, estructura y analisis de los procesos ELT, ciclo de vida de los datos, tipos de tablas y campos, reglas de calidad de los datos, politicas de backups, definicion y armado de framework de procesamiento de datos, etc).
    - Automatizacion de procesos ETL en tecnología SSIS, Data Factory, Python, SP.
    - Migracion de procesos ETL en tecnologia SSIS 2016 a 2019 de sistema de archivos a catalogo.
    - Tecnologias: SSIS, Snowflake, SQL Server, Talend, Data Factory, Python, Shell scripts, Azure, AWS.
    - Liderando el diseño e implementacion de politicas DataOps contemplando estandares de nomenclatura de tablas en Data Lake y Data Warehouse, definicion reglas de calidad, nomenclatura de procesos, definicion de usuarios nominales y de servicio, permisos, CI/CD, definicion politicas y estandares de pasaje entre ambientes, etc.
    - Apoyando a diseñar e implementar las politicas de Data Governance de la compañia segun metodologia DAMA.
    - Desarrollo de politicas, lineamientos y estrategias que garanticen la homologacion, estandarizacion, escalabilidad y la atencion adecuada a las necesidades del negocio.
    - Definicion de arquitecturas de datos batch, near realtime y realtime para el analisis y explotacion de datos a traves de diversas herramientas como Tableau, Power BI, Metabase.
    Big Data Azure Data Engineer SSIS SQL Server Snowflake Extraer, transformar, cargar (ETL) Data Warehouse
  • Banco Hipotecario
    Data Architect / Data Governance
    SOFTWARE PUBLISHING
    May 2021 - August 2022 (1 year and 3 months)
    Madrid, España
    Data Engineer / Data Architect / Data Governance

    Desde hace mas de 6 años, soy especialista en soluciones de business intelligence. Ayudo a las organizaciones a diseñar e implementar soluciones exitosas de BI desde el diseño y modelado de datos, procesos ELT/ETL para la ingesta de datos a partir de diferentes origenes ya sean on-premise como cloud y procesamiento batch, como real time.

    Soy arquitecto de datos Azure y he diseñado la arquitectura y el desarrollo de diferentes proyectos de BI como ser:

    - Datalake.
    - Lakehouse.
    - Delta Lake.
    - Data Warehouses.

    Los servicios utilizados en Azure fueron: Event Hub, Stream Analytics, Data Factory, Databricks, Synapse SQL Pool/Serverless, Azure SQL Server, Power BI.

    Tengo experiencia en el armado de estrategias de Data Governance, Master Data, Data Catalog.

    He liderado equipos de ingenieros de datos para el desarrollo de diferentes proyectos identificando los requerimientos funcionales y técnicos, estableciendo objetivos, roles del equipo y seguimiento de las tareas asignadas.

    He manejado presupuestos para la contratación de servicios con proveedores externos.

    Actualmente presto mis servicios a entidades financieras, de consumo masivo y empresas de IT que tercerizan sus servicios y su confianza en mi.

    Data Lake Big Data ETL Microsoft Power BI Databricks Synapse Data Factory SSIS ELT Event Hub
Recommendations
Certifications