top of page

SOBRE

Olá,

Meu nome é Claude Paugh e tenho mais de 25 anos de experiência na indústria de tecnologia. Minha carreira começou em infraestrutura e redes de tecnologia, depois migrei para engenharia de software. Mudei-me do Canadá para os Estados Unidos durante o boom da internet e, nos últimos 18 anos, tenho me concentrado em arquitetura e engenharia de dados.

Abaixo, você encontra alguns dos meus principais destaques de carreira e projetos. Você pode me encontrar no LinkedIn e na página da nossa empresa . Para mais informações, entre em contato com nosso chatbot de IA.

Melhor,

Claude

Áreas de Competência

Arquitetura de Dados
  • Arquitetura e implementação de Data Lake na AWS S3 e Redshift Spectrum. Obtenção de dados do Salesforce, Five9, API do Bing, API do Google Analytics, Pardot, arquivos estruturados (JSON, CSV, XML) e bancos de dados relacionais PostgreSQL.

  • Gerenciamento de metadados e implantação de infraestrutura do Informatica MDM, incluindo ETL, análise de dados, captura de elementos de dados de negócios e linhagem.

  • Implementei melhorias na metodologia de desenvolvimento que aumentaram a qualidade e o fornecimento de dados durante os ciclos de desenvolvimento e teste. A qualidade dos dados passou de ruim para excelente e o tempo de entrega caiu de 3 dias para 2 horas.

  • Integração de dados quase em tempo real usando Python com o Salesforce CRM, captura de requisitos de modelagem dimensional e projeto de banco de dados para data warehouse analítico no AWS Redshift.

  • Criou arquiteturas de referência de soluções e implementação para serviços de integração de dados e ETL baseado em eventos para integração com a AWS (Talend, Redshift, S3, JMS, Apache Service Mix).

  • Projeto de data lake para ingestão de dados em escala petabytes (Kinesis) para um serviço de streaming mundial. Inclui estratégia de particionamento (por minuto) e modificações para alteração de dados no formato Parquet.

  • Otimizações de processamento e melhorias na arquitetura para garantir escalabilidade e valores de séries temporais durante alterações no modelo de aprendizado de máquina.

  • Desenvolvi protótipos de serviços web de prova de conceito para serviços de dados usando Java e Python.

  • Desenvolvimento de políticas, práticas e contratos para o envolvimento do consumidor em interfaces de dados.

  • Desenvolvi convenções de modelagem de dados e diretrizes de padrões de projeto para bancos de dados relacionais e multidimensionais.

Resolução de Problemas
  • Análise direcionada de processos de negócios complexos e problemas de desempenho de aplicativos. Gerenciamento da triagem e resolução de desafios de desempenho, resultando em ganhos de desempenho significativos.

  • Gerenciamento de projeto de testes de desempenho para um projeto de US$ 50 milhões, abrangendo operações comerciais de precificação de produtos de gestão de ativos para uma empresa com mais de US$ 1 trilhão em ativos sob gestão. Gerenciei uma equipe mista de 12 pessoas, composta por membros locais e remotos, especializada em testes de desempenho.

  • Liderou a equipe de governança de Business Intelligence em uma grande instituição financeira e definiu a direção para os planos estratégicos corporativos. Responsável pelas atualizações das metodologias do ciclo de vida de desenvolvimento de software (SDLC) da empresa, incluindo entregáveis de desenvolvimento de dados (Agile e Waterfall). Liderou a governança das ferramentas de BI e a adoção das melhores práticas, incluindo produtos comerciais e de código aberto.

Modelagem e Análise
  • Realizei modelagem conceitual, lógica e física para múltiplos projetos ao longo da minha carreira.

  • Projeto de esquema de dados mestre para títulos, participações/posições e desenvolvimento de aplicativos para calcular análises derivadas de exposição ao risco em níveis aninhados de portfólios. Os cálculos analíticos abrangeram todos os portfólios de investimento da empresa para uma grande gestora de ativos (US$ 200 bilhões em ativos sob gestão).

  • Desenvolvi um protótipo de mecanismo de análise usando Python e as bibliotecas Dask para uma grande instituição financeira multinacional. Criei uma arquitetura de prova de conceito para um ambiente de análise Python distribuído, incluindo integração com o Azure.

  • Desenvolvimento de análises para personalização, preparação e agregação de conjuntos de dados usando Python.

  • Desenvolvi convenções de modelagem de dados e diretrizes de padrões de projeto para bancos de dados relacionais e multidimensionais.

Engenharia
  • Projeto de banco de dados, incluindo otimização de desempenho de SQL, projeto físico de banco de dados e desenvolvimento para bancos de dados altamente críticos que fornecem dados essenciais para o mercado em curtos períodos de tempo.

  • Desenvolvi pipelines de dados personalizados com Apache Kafka para desenvolvimento de análises e aprendizado de máquina (ML) em Python. Trabalhei em clusters Apache Spark com conjuntos de dados excepcionalmente grandes (50 TB) para criptografia de informações pessoais identificáveis (PII). Os clusters Spark utilizados tinham até 62 nós, 1950 CPUs e 10 TB de RAM.

  • Projeto e implementação de esquema em clusters Redshift para banco de dados de múltiplos petabytes, otimizado para lidar com trilhões de linhas, com crescimento anual de 25%.

  • Implementei modelos preditivos de aprendizado de máquina para liquidação de crédito em Python, utilizando pandas, NumPy e scikit-learn. Essa implementação foi fundamental para a geração de receita do negócio.

  • Pipelines de ponta a ponta do Google Cloud Platform (GCP) construídos usando Python, Kubernetes (GKE), GCP Cloud Functions, Storage Transfer Service (STS), Google Cloud Storage (GCS) e appliances de armazenamento Weka.

  • Muitos anos de experiência em projetos físicos e otimização de Oracle e DB2 para aplicações de alta disponibilidade e desempenho (milhares de TPS).

bottom of page