top of page

UM

Hallo,

Mein Name ist Claude Paugh, und ich bin seit über 25 Jahren in der Technologiebranche tätig. Meine Karriere begann im Bereich Technologieinfrastruktur und Netzwerktechnik, bevor ich mich der Softwareentwicklung zuwandte. Während des Dotcom-Booms zog ich von Kanada in die USA und konzentriere mich seit über 18 Jahren auf Datenarchitektur und -engineering.

Einige meiner beruflichen und projektbezogenen Highlights finden Sie unten. Sie können mich auf LinkedIn und auf unserer Unternehmensseite finden. Für weitere Informationen steht Ihnen unser KI-Chatbot gerne zur Verfügung.

Am besten,

Claude

Kompetenzbereiche

Datenarchitektur
  • Architektur und Implementierung eines Data Lakes auf AWS S3 und Redshift Spectrum. Datenbeschaffung aus Salesforce, Five9, Bing API, Google Analytics API, Pardot, strukturierten Dateien (JSON, CSV, XML) und relationalen PostgreSQL-Datenbanken.

  • Informatica MDM Metadatenmanagement und Infrastrukturbereitstellung, Verwaltung von ETL, Datenanalyse, Erfassung von Geschäftsdatenelementen und Datenherkunft

  • Es wurden Verbesserungen der Entwicklungsmethodik vorgenommen, die die Datenqualität und die Datenbereitstellung während der Entwicklungs- und Testzyklen erhöhten. Die Datenqualität verbesserte sich von mangelhaft zu hervorragend, und die Lieferzeiten verkürzten sich von 3 Tagen auf 2 Stunden.

  • Nahezu Echtzeit-Datenintegration mit Python in Salesforce CRM, Erfassung von Anforderungen an die dimensionale Modellierung und Datenbankdesign für ein Analytics-Data-Warehouse auf AWS Redshift.

  • Erstellte Referenzarchitekturen und Implementierungen für Datenintegrationsdienste und ereignisbasierte ETL-Prozesse zur AWS-Integration (Talend, Redshift, S3, JMS, Apache Service Mix).

  • Data-Lake-Design für die Aufnahme von PB-großen Streaming-Daten (Kinesis) für einen weltweiten Streaming-Dienst. Inklusive Partitionierungsstrategie (Minutenformat) und Datenänderungsanpassungen für Parquet.

  • Verarbeitungsoptimierungen und Architekturverbesserungen zur Sicherstellung von Skalierbarkeit und Zeitreihenwerten bei Änderungen des ML-Modells

  • Entwicklung eines Proof-of-Concept-Webservice-Prototyps für Datendienste mit Java und Python

  • Entwicklung von Richtlinien, Verfahren und Verträgen für die Einbindung von Verbrauchern in Datenschnittstellen

  • Entwicklung von Konventionen für die Datenmodellierung und Richtlinien für Entwurfsmuster für relationale und mehrdimensionale Datenbanken

Problemlösung
  • Gezielte Analyse komplexer Geschäftsprozessoptimierungen und Anwendungsleistungsprobleme. Priorisierung und Behebung von Leistungsproblemen, was zu erheblichen Leistungssteigerungen führte.

  • Projektmanagement für Performance-Tests eines 50-Millionen-Dollar-Projekts zur Preisgestaltung von Vermögensverwaltungsprodukten für ein Unternehmen mit über 1 Billion US-Dollar verwaltetem Vermögen. Leitung eines kombinierten Onshore- und Offshore-Teams von 12 Mitarbeitern mit Spezialisierung auf Performance-Tests.

  • Ich leitete das Business-Intelligence-Governance-Team eines großen Finanzinstituts und gab die Richtung für die Unternehmensstrategie vor. Ich war verantwortlich für die Aktualisierung der SDLC-Methoden des Unternehmens, um die Entwicklung von Daten (Agile & Wasserfall) zu integrieren. Zudem leitete ich die Governance der BI-Tools und die Implementierung von Best Practices, einschließlich kommerzieller und Open-Source-Produkte.

Modellierung und Analytik
  • Im Laufe meiner Karriere habe ich für zahlreiche Projekte konzeptionelle, logische und physikalische Modelle erstellt.

  • Entwicklung eines Stammdatenschemas für Wertpapiere, Bestände/Positionen sowie einer Anwendung zur Berechnung abgeleiteter Risikoanalysen über verschiedene Portfolioebenen hinweg. Die Analysen umfassten alle Anlageportfolios eines großen Vermögensverwalters (200 Mrd. AUM).

  • Entwicklung eines Prototyps einer Analyse-Engine mit Python und den Dask-Bibliotheken für ein großes multinationales Finanzinstitut. Architekturnachweis zur Schaffung einer verteilten Python-Analyseumgebung inklusive Azure-Integration.

  • Entwicklung von Analysetools zur Anpassung, Aufbereitung und Aggregation von Datensätzen mit Python

  • Entwicklung von Konventionen für die Datenmodellierung und Richtlinien für Entwurfsmuster für relationale und mehrdimensionale Datenbanken

Maschinenbau
  • Datenbankdesign einschließlich SQL-Leistungsoptimierung, physischem Datenbankdesign und Entwicklung für hochkritische Datenbanken, die marktrelevante Daten in kurzer Zeit lieferten

  • Entwicklung kundenspezifischer Datenpipelines mit Apache Kafka für Analysen und maschinelles Lernen (ML) mit Python. Entwicklung auf Apache Spark-Clustern für extrem große Datensätze (50 TB) zur Verschlüsselung personenbezogener Daten. Die verwendeten Spark-Cluster umfassten bis zu 62 Knoten, 1950 CPUs und 10 TB RAM.

  • Schema-Design und -Implementierung auf Redshift-Clustern für eine Multi-PB-Datenbank, optimiert für die Verarbeitung von Billionen von Zeilen mit einem jährlichen Wachstum von 25 Prozent.

  • Implementierte prädiktive maschinelle Lernmodelle für die Kreditabwicklung in Python unter Verwendung von pandas, NumPy und SKLearn. Dies war für die Generierung von Kernumsätzen verantwortlich.

  • Google Cloud Platform (GCP): End-to-End-Pipelines, erstellt mit Python, Kubernetes (GKE), GCP Cloud Functions, Storage Transfer Service (STS), Google Cloud Storage (GCS) und Weka-Speichergeräten.

  • Langjährige Erfahrung in der Entwicklung und Optimierung von physischen Oracle- und DB2-Systemen für hochverfügbare und leistungsstarke Anwendungen (Tausende von Transaktionen pro Sekunde).

bottom of page