Datenarchitekt bei der Citi Bank Lebenslaufbeispiel

Eingestellt von: Citi Bank

Enhance your resume with our Data Architect at Citi Bank resume sample. It aided a fellow job seeker in securing their position. Download it as is or use our HR-approved resume builder for customization. Your next career move could be one edit away!

Korrektur-Beispiel mit KI
1 M+ Jobsuchende
Dieser Musterlebenslauf wurde von einer echten Person zur Verfügung gestellt, die mit der Hilfe von Kickresume eingestellt wurde. Erstelle deinen Lebenslauf jetzt oder bearbeite diesen Beispiellebenslauf.
War diese Vorlage hilfreich? Bewerten Sie ihn!
Durchschnitt: 5.0 (5 Stimmen)

Datenarchitekt bei der Citi Bank Lebenslaufbeispiel (Volle Textversion)

Christian Markmell

Nationalität: Amerikaner
E-Mail Adresse: hello@kickresume.com
Sonstiges Telefon: 999-999-999

Profil

Data Engineeringund Architektur|| Databricks Data Engineer Professional || Microsoft Data Engineer || Big Data ,ETL, Data Warehouse und Lake-house Professional || Data Analytics

Profil Zusammenfassung

  • Mit einem umfassenden beruflichen Hintergrund, der sich über 17 Jahre erstreckt, bin ich derzeit als technischer Architekt und Leiter der Datenentwicklung bei Tata Consultancy Services(TCS) tätig, wo ich in den letzten 4 Jahren und 2 Monaten fleißig mitgearbeitet habe.
  • Mein Fachwissen liegt in der Konzeption und Entwicklung von Data Warehouses/Data Lake/Lake House und ETL/ELT-Datenpipelines in Unternehmensumgebungen.
  • Ich verfüge über fortgeschrittene Kenntnisse in Databricks, Pyspark, SQL, Data Warehouse- und Lake-House-Design und habe meine Fähigkeiten sowohl bei konventionellen als auch bei verteilten Data Warehouses auf Plattformen wie Microsoft Azure, Google Cloud (GCP) und Databricks effektiv eingesetzt.
  • In meiner jetzigen Funktion arbeite ich als Azure- und Databricks-Ingenieur und -Entwickler und betreue die renommierte Kundschaft einer großen Schweizer Bank.

Fertigkeiten

Programmiersprache/Framework
Cloudera Hadoop, Apache Spark (PySpark), Python
SQL/TSQL, Hive, Impala
Öffentliche Cloud/Rechenleistung
Microsoft Azure
Google Cloud-Plattform
Databricks und Lakehouse
Verteilte Datenbanken
Amazon Redshift
Google BigQuery
Extrahieren Transformieren Laden
Talend
SSIS
PySpark
RDBMS
SQL-Server 2008/2012
Oracle 11g
PostgreSQL
Selbstbedienung BI und Analytik
Datameer
Tableau/ R Programmierung
Trifacta

Stärken

Effektive Kommunikationsfähigkeiten
Detailorientierter und klarer Ansatz
Hohe Arbeitsmoral und Professionalität
Kollaborativ und teamorientiert

Technologie-Exposition

Azure Datenbausteine - 80%
Microsoft Azure und GCP - 45%
ETL und Datenmodellierung, dimensionale Modellierung - 70%
Big Data, Cloudera Hadoop, Spark, Pig - 60%
SQL, RDBMS und Datenlager - 80%
C#.Net und objektorientiertes Programmieren - 65%
Linux, Terraform, CICD, Git - 40%

Zusammenfassung der Beschäftigung

09/2021 - heute, Technischer Leiter und Datenarchitekt, TATA Consultancy Services, Wrocław, Polen
06/2019 - 09/2021, Technischer Leiter, TATA Consultancy Services, Pune, Indien
09/2016 - 05/2019, Senior Lead Analyst, Infosys BPM, Pune, Indien
09/2013 - 09/2016, Leitender Programmierer-Analyst, CitiCorp Services India Private Limited, Pune, Indien
09/2007 - 09/2013, Berater, Automatic Data Processing India Pvt Ltd, Pune, Indien
04/2006 - 09/2007, Software-Entwickler, Optimal Info Tech Private Limited, Mumbai, Indien

Zertifizierungen

01/2023, Databricks Zertifizierter Dateningenieur Professional, Databricks, https://credentials.databricks.com/c01ce455-372c-40fc-9aea-d864d2cfa204
02/2023, Microsoft Certified: Azure Data Fundamentals, Microsoft, https://www.credly.com/badges/3f5653fb-0b75-4fb0-babb-8115a24bc6dc/public_url
12/2022, Microsoft Zertifiziert: Azure-Grundlagen, Microsoft, https://www.credly.com/badges/ea924909-3c1e-485d-8dad-ea4c3b5372d3/public_url

Projekt-Erfahrung

09/2021 - heute, Datenarchitekt und technischer Leiter, TATA Consultancy Services, Wroclaw, Polen

Projekt: BFSI-Regulierungsdatenplattform für die globale Abwicklungs-(Sanierungs- und Abwicklungsplanung) und Vermögensverwaltung

Beschreibung: Einrichtung einer Daten- und Berichtsplattform als Teil der Abwicklungs- und Sanierungsplanung für die Investmentbank. Diese monatliche regulatorische "Krise" und "Business As Usual" Playbook mit End-to-End-Daten-Pipeline-Entwicklung und Ausführungen zur Verarbeitung komplexer Finanzdaten Berechnungen aus verschiedenen vorgelagerten Systemen.

Rollen: Datenarchitektur, Datenstrategie, Systemintegration und -analyse

Werkzeuge und Env: Apache Spark (PySpark), Spark Dataframes API, Spark Pipeline-Optimierung Apache Airflow, AzCopy und Azure Synapse

Python, GitHub, Jenkins, SQL, Tableau, Jira (Atlassian)

Databricks-Plattform auf Microsoft Azure

Linux, Cloudera Hadoop

06/2019 - 08/2021, Technischer Leiter, TATA Consultancy Services, Pune, Indien

Projekt: BFSI Regulatorische Datenplattform für OCIR (Operational Continuity in Resolution)

Beschreibung: Die Finanzierung und Verrechnung von Vermögenswerten und Dienstleistungen der Investmentbank erfordert regelmäßige Bewertungen und Neueinschätzungen in OCIR. Das Projekt erfordert die Aufnahme aller Finanz- und Referenzdaten für Anlagen und Dienstleistungen, die für eine erneute Schätzung und Bewertung projiziert werden müssen. Dies wurde erreicht, indem riesige Daten aus allen Abteilungen und Diensten aufgenommen und berechnet wurden, um die Projektion innerhalb der SLA abzustimmen.

Rolle: Senior Big Data-Ingenieur

Werkzeuge und Env: Apache Hive, Apache Spark (Python), Impala, GitHub, Jira (Atlassian)

Databricks-Plattform auf Microsoft Azure und Google Cloud

Linux, Cloudera Hadoop

09/2016 - 05/2019, Senior Lead Analyst, Infosys BPM, Pune, Indien

Projekt: Data Warehouse für die Lieferkette

Beschreibung: Einrichtung einer Analyseplattform, die die Entwicklung eines Data Warehouse und eines Single Point of Truth-Datenspeichers für verschiedene Teilbereiche und eine Berichtsschnittstelle umfasst.

Ziel war die Erfassung von Importmetriken auf täglicher Basis, zum Beispiel,

  • Beschaffung bis zur Bezahlung
  • Überfällige Analyse

Rolle: Datenarchitekt und Technik

Werkzeuge und Env: AWS, Amazon Redshift, PostgreSql, SQL, PL/PGSQL

09/2013 - 09/2016, Senior Programmer Analyst, Citicorp Services India Private Limited, Pune, Indien

Projekt: Citi Forschung und Analytik

Beschreibung: Bereitstellung einer Plattform für Big Data Analytics für folgende Anwendungsfälle

Webzugriffsprotokolle des Citi Velocity-Portals für Einblicke in das Zugriffsmuster der Benutzer

Berichterstattung über Nutzungsspitzen je nach Region/Land/Stadt mit direkter Zuordnung zu den jeweiligen AKAMAI-Servern.

Aufnahme von Web-Click-Through-Datenund Aufbau von Data Marts für Click Through-Analysen, die von Citi Research-Abonnements stammen

Rolle: Big Data-Entwickler

Werkzeuge und Env: Apache Spark (Python), Impala, Oracle 10g, PLSQL, Talend 5.6 (ETL), Datameer, MYSQL, PIWIK

Cloudera Hadoop, Oracle, Linux, Java

09/2007 - 09/2013, Berater, Automatische Datenverarbeitung Indien (ADP), Pune, Indien

Technischer Kernarbeitsbereich:

C#.NET(4.5) Entwicklung auf Application Framework mit Entity Framework

Datenbankentwicklung und ETL mit SQL Server 2008 und SSIS

Rolle: Software-Entwickler

04/2006 - 09/2007, Software-Entwickler, Optimal Info Tech Private Limited, Mumbai, Indien

Technischer Kernarbeitsbereich:

Software-Entwicklung für Garment Export ERP-Lösung(N-Tier) Anwendung mit folgenden Technologien

VB.NET und SQL Server 2005/2008

Errungenschaften

  • Aufbau einer End-to-End-Lösung für Exception Dashboard und Reporting unter Verwendung von Spark mit Live-Dashboard, die es dem Unternehmen ermöglicht, rechtzeitig zu handeln und wertvolle Zeit (2-3 Tage) für die Freigabe zu sparen. Dies beinhaltete Hilfsfunktionen wie :konfigurierbarer Cross-Pipeline-Vergleich zur Identifizierung von Deltas.
  • Migration der Projektdatenpipelines von Spark 2.0 auf Spark 3.0 innerhalb von 2 Wochen unter erheblichem Druck mit kritischen Projekt- und Geschäftsausfällen
  • Optimierung vonSpark-Datenpipelines durch Identifizierung von Engpässen auf verschiedenen Ebenen für Pipeline-Code, Framework und Plattform. Das Ergebnis ist: Identifizierte Modelle wurden mit einer Verbesserung von fast 40 % optimiert, und auf der Grundlage der Analyse wurden einige Modelle in rechenoptimierteDB-Cluster verlagert, was zu einer herausragenden Leistungssteigerung von 200 % führte.

Akkreditierungen und Schulungen

  • Databricks Partner Solutions ArchitectEssentials
  • Akkreditierung - Databricks Lakehouse Grundlagen
  • Microsoft Azure für Datentechnik
  • Google Cloud-Plattform für Big Data und maschinelles Lernen
  • Grundlagen der Nutzung unstrukturierter Daten mit Cloud Dataproc auf Google Cloud Platform
  • Serverlose Datenanalyse mit Google BigQuery und Cloud Dataflow

Ausbildung

07/2005 - 02/2006, Post Graduate Diploma in Advance Computing, Advance Computing, Vidyanidhi Info Tech Academy-National Resource Centre of CDAC, Indien, Mumbai, Indien

Fortgeschrittenes Rechnen

(C, C++, Java, .Net, RDBMS-Oracle, Linux)

07/2005, Bachelor of Mechanical Engineering, Maschinenbau, All India Shri Shivaji Memorial Society's College of Engineering [Universität Pune], Pune, Indien

Referenzen

Kedar Kulkarni, Citi Technology Kanada, kedarkulkarni78@gmail.com, +16478322499
Suraj Pedulwar, Automatische Datenverarbeitung Indien Private Limited, +91 9049156085
Vijay Bhaskar Datla Reddy, Clairvoyant LLC, datla.vijay@gmail.com, +91 9960501199
Karthick Vadivel, Schlumberger, vadivelkarthick1989@gmail.com, +91 9975638603

Soziale Medien

@charudattadeshmukh - https://www.linkedin.com/in/charudattadeshmukh/
@charudatta007 - https://twitter.com/Charudatta007
@charudattadeshmukh - https://medium.com/@charudattadeshmukh/
Stellenübersicht:

As a Data Architect, you will be the mastermind behind an organization's data strategy and infrastructure. Your role involves designing and managing data systems, ensuring data accuracy, security, and accessibility. You'll collaborate with stakeholders to understand data needs, create data models, and oversee database development. Your expertise in data management and architecture will enable efficient data utilization, driving informed decision-making and business growth. As a Data Architect, you'll play a crucial role in transforming raw data into actionable insights for your organization.

Unternehmensübersicht:
Citi Bank

Citi Bank, a subsidiary of Citigroup Inc., is a global banking and financial services institution. Renowned for its extensive network and diverse financial products, Citi Bank serves millions of individuals, businesses, and institutions worldwide. Offering a wide range of services including banking, lending, wealth management, and more, Citi Bank is committed to enabling financial progress and economic growth. With a history spanning over two centuries, it remains a trusted partner for customers seeking comprehensive financial solutions and expertise.

Bearbeite dieses Muster mit unserem Lebenslauf-Generator.

Lass deinen Lebenslauf sich selbst schreiben - mit KI!

Der KI-Lebenslauf-Verfasser von Kickresume kann in Sekundenschnelle einen ersten Entwurf deines Lebenslaufs erstellen. Gib einfach nur deine Berufsbezeichnung ein und lass dir von der künstlichen Intelligenz helfen, zu beginnen.
Erstelle einen Lebenslauf mit KI Lass deinen Lebenslauf sich selbst schreiben - mit KI!

Ähnliche IT Lebensläufe

Systemadministrator Lebenslauf Muster
Systemadministrator Lebenslauf Muster
Mobile Developer Lebenslauf Beispiel
Mobile Developer Lebenslauf Beispiel
Senior Systems Analyst CV-Muster
Senior Systems Analyst CV-Muster

Ähnliche datenbankadministratorIn Anschreiben

Netzwerkadministrator Anschreiben Muster
Netzwerkadministrator Anschreiben Muster
Datenbankingenieur Anschreiben Beispiel
Datenbankingenieur Anschreiben Beispiel
Beispiel eines Anschreibens für einen Datenverarbeiter
Beispiel eines Anschreibens für einen Datenverarbeiter

Überlasse deinem Lebenslauf die Arbeit.

Gesell dich zu den weltweit 5.000.000 Jobsuchenden und finde schneller eine Anstellung mit deinem bis jetzt besten Lebenslauf.

Lebenslauf erstellen
english template stanford template rectangular template