top of page

について

こんにちは、

クロード・ポーと申します。テクノロジー業界で25年以上のキャリアを積んできました。キャリアは技術インフラとネットワークから始まり、その後ソフトウェアエンジニアリングへと転向しました。ドットコムブームの頃にカナダからアメリカに移住し、ここ18年以上はデータアーキテクチャとエンジニアリングに注力してきました。

私のこれまでの経歴とプロジェクトのハイライトをいくつかご紹介します。LinkedIn会社ページで私を見つけることができます。さらに詳しい情報をご希望の場合は、AIチャットボットにご質問ください。

最高、

クロード

能力分野

データアーキテクチャ
  • AWS S3 および Redshift Spectrum 上のデータレイクのアーキテクチャと実装。Salesforce、Five9、Bing API、Google Analytics API、Pardot、構造化ファイル(JSON、CSV、XML)、PostgreSQL リレーショナルデータベースからデータを取得します。

  • Informatica MDM メタデータ管理とインフラストラクチャの展開、ETL、データ分析、ビジネスデータ要素と系統のキャプチャの管理

  • 開発手法の改善により、開発およびテストサイクルにおけるデータ品質とデータプロビジョニングが向上しました。データ品質は低品質から高品質へと向上し、配信時間は3日から2時間に短縮されました。

  • Python と Salesforce CRM を使用したほぼリアルタイムのデータ統合、AWS Redshift 上の分析データ ウェアハウスのディメンション モデリング要件のキャプチャとデータベース設計。

  • AWS 統合 (Talend、Redshift、S3、JMS、Apache Service Mix) 用のデータ統合サービスとイベントベースの ETL のソリューション リファレンス アーキテクチャと実装を作成しました。

  • ペタバイト規模のストリーミング(Kinesis)データ取り込みのためのデータレイク設計。世界規模のストリーミングサービスに対応。パーティショニング戦略(分単位)とParquetのデータ変更修正機能も搭載。

  • MLモデルの変更時にスケーラビリティと時系列値を確保するための処理の最適化とアーキテクチャの強化

  • Java と Python を使用してデータ サービスの概念実証 Web サービス プロトタイプを構築しました。

  • データインターフェースの消費者関与のためのポリシー、実践、契約の開発

  • リレーショナルデータベースおよび多次元データベースのデータモデリング規則と設計パターンガイドラインを開発しました。

問題解決
  • 困難なビジネスプロセス・リエンジニアリング分析とアプリケーションパフォーマンスの問題に焦点を当て、パフォーマンス課題のトリアージと解決を管理することで、桁違いのパフォーマンス向上を実現しました。

  • 運用資産残高1兆ドル以上の企業向け資産運用商品の価格設定に関わる業務オペレーションを含む、5,000万ドル規模のプロジェクトにおけるパフォーマンステストのプロジェクトマネジメント。パフォーマンステストを専門とする12名からなるオンショアおよびオフショアのチームを管理。

  • 大手金融機関のビジネスインテリジェンスガバナンスチームを率い、企業ロードマップの方向性を策定しました。データ開発成果物(アジャイル&ウォーターフォール)を含む社内SDLC手法のアップデートを担当しました。商用製品およびオープンソース製品を含むBIツールのガバナンスとベストプラクティスの導入を主導しました。

モデリングと分析
  • キャリアを通じて複数のプロジェクトで概念的、論理的、物理的なモデリングを実行

  • 証券、保有/ポジション、およびポートフォリオの階層構造全体にわたる派生リスクエクスポージャー分析を計算するためのアプリケーション開発のためのマスターデータスキーマ設計。分析計算は、大規模(運用資産2,000億ドル)資産運用会社の全投資ポートフォリオを対象としました。

  • 大手多国籍金融機関向けに、PythonとDaskライブラリを用いたプロトタイプ分析エンジンを開発しました。Azureとの統合を含む、分散型Python分析環境を構築するための概念実証アーキテクチャです。

  • Python を使用したデータセットのカスタマイズ、準備、集計のための分析開発

  • リレーショナルデータベースおよび多次元データベースのデータモデリング規則と設計パターンガイドラインを開発しました。

エンジニアリング
  • SQL パフォーマンス チューニング、物理データベース設計、短期間で市場の重要なデータを提供する非常に重要なデータベースの開発を含むデータベース設計

  • Pythonによる分析および機械学習(ML)開発向けに、Apache Kafkaを用いたカスタマイズされたデータパイプラインを開発しました。また、PII暗号化のための非常に大規模な(50TB)データセット向けのApache Sparkクラスタを開発しました。使用されたSparkクラスタのサイズは、最大62ノード、1950個のCPU、10TBのRAMでした。

  • 年間25%で増加する数兆行の処理に最適化された、マルチPBデータベース向けRedshiftクラスタのスキーマ設計と実装

  • pandas、NumPy、SKLearnを用いてPythonで予測機械学習によるクレジット決済モデルを実装しました。これにより、コア事業の収益創出に貢献しました。

  • Python、Kubernetes (GKE)、GCP Cloud Functions、Storage Transfer Service (STS)、Google Cloud Storage (GCS)、Weka ストレージ アプライアンスを使用して構築された Google Cloud Platform (GCP) エンドツーエンドのパイプライン

  • 高可用性と高性能アプリケーション(数千 TPS)のための長年にわたる Oracle および DB2 の物理設計とチューニング

bottom of page