top of page

ACERCA DE

Hola,

Me llamo Claude Paugh y tengo más de 25 años de experiencia en el sector tecnológico. Mi carrera comenzó en infraestructura tecnológica y redes, para luego adentrarme en la ingeniería de software. Me mudé de Canadá a Estados Unidos durante el boom de las puntocom y, durante los últimos 18 años, me he especializado en arquitectura e ingeniería de datos.

Algunos de los aspectos más destacados de mi carrera y proyectos se encuentran a continuación. Puedes encontrarme en LinkedIn y en la página de nuestra empresa . Si deseas más detalles, también puedes consultar con nuestro chatbot de IA.

Mejor,

Claude

Áreas de competencia

Arquitectura de datos
  • Arquitectura e implementación de un Data Lake en AWS S3 y Redshift Spectrum. Obtención de datos de Salesforce, Five9, la API de Bing, la API de Google Analytics, Pardot, archivos estructurados (JSON, CSV, XML) y bases de datos relacionales PostgreSQL.

  • Gestión de metadatos y despliegue de infraestructura de Informatica MDM, gestión de ETL, análisis de datos, captura de elementos de datos empresariales y linaje.

  • Implementé mejoras en la metodología de desarrollo que incrementaron la calidad y el aprovisionamiento de datos durante los ciclos de desarrollo y pruebas. La calidad de los datos pasó de deficiente a excelente y los tiempos de entrega se redujeron de 3 días a 2 horas.

  • Integración de datos casi en tiempo real utilizando Python con Salesforce CRM, captura de requisitos de modelado dimensional y diseño de bases de datos para el almacén de datos analíticos en AWS Redshift.

  • Creé arquitecturas de referencia de soluciones e implementaciones para servicios de integración de datos y ETL basado en eventos para la integración con AWS (Talend, Redshift, S3, JMS, Apache Service Mix).

  • Diseño de un data lake para la ingesta de datos en streaming a escala de petabytes (Kinesis) para un servicio de streaming global. Incluye estrategia de particionamiento (por minuto) y modificaciones de datos para Parquet.

  • Optimización del procesamiento y mejoras de la arquitectura para garantizar la escalabilidad y los valores de las series temporales durante los cambios en el modelo de aprendizaje automático.

  • Desarrollé un prototipo de servicio web de prueba de concepto para servicios de datos utilizando Java y Python.

  • Desarrollo de políticas, prácticas y contratos para la participación del consumidor en las interfaces de datos.

  • Desarrolló convenciones de modelado de datos y pautas de patrones de diseño para bases de datos relacionales y multidimensionales.

Resolución de problemas
  • Realicé análisis de reingeniería de procesos de negocio complejos y solucioné problemas de rendimiento de aplicaciones. Gestioné la priorización y resolución de problemas de rendimiento, lo que generó mejoras significativas.

  • Gestión de proyectos de pruebas de rendimiento para un proyecto de 50 millones de dólares que abarcaba las operaciones comerciales para la fijación de precios de productos de gestión de activos para una empresa con más de 1 billón de dólares en activos bajo gestión. Gestioné un equipo combinado de 12 personas, tanto locales como remotas, especializadas en pruebas de rendimiento.

  • Lideré el equipo de gobernanza de inteligencia empresarial en una gran institución financiera y definí la estrategia corporativa. Fui responsable de actualizar las metodologías del ciclo de vida de desarrollo de software (SDLC) de la empresa, incluyendo los entregables de desarrollo de datos (Agile y Waterfall). Lideré la gobernanza de las herramientas de BI y la adopción de mejores prácticas, incluyendo productos comerciales y de código abierto.

Modelado y análisis
  • Realicé modelado conceptual, lógico y físico para múltiples proyectos a lo largo de mi carrera.

  • Diseño del esquema de datos maestros para valores, participaciones/posiciones y desarrollo de aplicaciones para calcular análisis de exposición al riesgo derivados en todos los niveles anidados de las carteras. Los cálculos analíticos abarcaron todas las carteras de inversión de una gran gestora de activos (200 mil millones de dólares en activos bajo gestión).

  • Desarrollé un prototipo de motor de análisis utilizando Python y las bibliotecas Dask para una gran institución financiera multinacional. Implementé una arquitectura de prueba de concepto para crear un entorno de análisis distribuido en Python, incluyendo la integración con Azure.

  • Desarrollo de analíticas para la personalización, preparación y agregación de conjuntos de datos utilizando Python.

  • Desarrolló convenciones de modelado de datos y pautas de patrones de diseño para bases de datos relacionales y multidimensionales.

Ingeniería
  • Diseño de bases de datos, incluyendo la optimización del rendimiento de SQL, el diseño físico de bases de datos y el desarrollo de bases de datos de alta criticidad que proporcionaban datos críticos para el mercado en plazos de tiempo reducidos.

  • Desarrollé pipelines de datos personalizados con Apache Kafka para análisis y desarrollo de aprendizaje automático (ML) con Python. Realicé desarrollo en clústeres Apache Spark para conjuntos de datos excepcionalmente grandes (50 TB) para el cifrado de información personal identificable (PII). Los clústeres Spark utilizados alcanzaron tamaños de hasta 62 nodos, 1950 CPU y 10 TB de RAM.

  • Diseño e implementación de esquemas en clústeres Redshift para una base de datos de varios petabytes optimizada para gestionar billones de filas con un crecimiento anual del 25 %.

  • Implementé modelos predictivos de aprendizaje automático para la liquidación de créditos en Python utilizando pandas, NumPy y SKLearn. Esto fue responsable de la generación de ingresos del negocio principal.

  • Pipelines de extremo a extremo de Google Cloud Platform (GCP) construidos con Python, Kubernetes (GKE), GCP Cloud Functions, Storage Transfer Service (STS), Google Cloud Storage (GCS) y dispositivos de almacenamiento Weka.

  • Muchos años de experiencia en diseño físico y optimización de Oracle y DB2 para aplicaciones de alta disponibilidad y rendimiento (miles de TPS).

bottom of page