Esempio di curriculum per architetto di dati presso Citi Bank

Hired by: Citi Bank

Migliora il tuo curriculum con il nostro esempio di curriculum Data Architect presso Citi Bank. Ha aiutato un collega in cerca di lavoro ad assicurarsi la sua posizione. Scaricatelo così com'è o utilizzate il nostro costruttore di curriculum approvato dalle risorse umane per personalizzarlo. Il vostro prossimo avanzamento di carriera potrebbe essere a una sola modifica di distanza!

Rewrite Sample with AI
Più di un milione di persone che cercano lavoro
Questo modello di CV è stato offerto da una persona reale che è stata assunta grazie all'aiuto di Kickresume. Crea il tuo nuovo CV ora. oppure modifica questo esempio di CV.
Questo esempio è stato utile? Vota!
Average: 4.9 (18 votes)

Esempio di curriculum per architetto di dati presso Citi Bank (Versione Testo Intero)

Christian Markmell

Nazionalità: Americano
Indirizzo e-mail: hello@kickresume.com
Altro telefono: 999-999-999

Profilo

Ingegneriae architetturadei dati|| Databricks Data Engineer Professional || Microsoft Data Engineer || Big Data ,ETL, Data Warehouse e Lake-house Professional || Data Analytics

Riassunto del profilo

  • Con un background professionale completo di 17 anni, attualmente ricopro il ruolo di Technical Architect e Lead in Data Engineering presso Tata Consultancy Services(TCS), dove ho contribuito diligentemente negli ultimi 4 anni e 2 mesi.
  • La mia esperienza consiste nella progettazione e nello sviluppo di data warehouse/data lake/lake house e di pipeline di dati ETL/ELT in ambienti aziendali.
  • Con competenze avanzate in Databricks, Pyspark, SQL, progettazione di data warehouse e lake-house, ho applicato efficacemente le mie competenze a data warehouse convenzionali e distribuiti su piattaforme quali Microsoft Azure, Google Cloud (GCP) e Databricks.
  • Attualmente lavoro come ingegnere e sviluppatore per Azure e Databricks e mi occupo della clientela di una grande banca svizzera.

Competenze

Linguaggio di programmazione/Framework
Cloudera Hadoop, Apache Spark (PySpark), Python
SQL/TSQL, Hive, Impala
Cloud pubblico/computing
Microsoft Azure
Piattaforma cloud di Google
Databricks e Lakehouse
Database distribuiti
Amazon Redshift
Google BigQuery
Estrarre trasformare caricare
Talend
SSIS
PySpark
RDBMS
SQL Server 2008/2012
Oracle 11g
PostgreSQL
BI e analisi self-service
Datameer
Programmazione Tableau/R
Trifacta

Punti di forza

Efficaci capacità di comunicazione
Approccio orientato al dettaglio e alla chiarezza
Forte etica del lavoro e professionalità
Spirito collaborativo e di squadra

Esposizione alla tecnologia

Azure Databricks - 80%
Microsoft Azure e GCP - 45%
ETL e modellazione dei dati, modellazione dimensionale - 70%
Big Data, Cloudera Hadoop, Spark, Pig - 60%
SQL, RDBMS e Data warehouse - 80%
C#.Net e Programmazione orientata agli oggetti - 65%
Linux, Terraform, CICD, Git - 40%

Riepilogo dell'impiego

09/2021 - presente, Technical lead e Data Architect, TATA Consultancy Services, Wrocław, Polonia
06/2019 - 09/2021, Responsabile tecnico, TATA Consultancy Services, Pune, India
09/2016 - 05/2019, Analista capo senior, Infosys BPM, Pune, India
09/2013 - 09/2016, Analista programmatore senior, CitiCorp Services India Private Limited, Pune, India
09/2007 - 09/2013, Consulente, Automatic Data Processing India Pvt Ltd, Pune, India
04/2006 - 09/2007, Sviluppatore software, Optimal Info Tech Private Limited, Mumbai, India

Certificazioni

01/2023, Databricks Certified Data Engineer Professional, Databricks, https://credentials.databricks.com/c01ce455-372c-40fc-9aea-d864d2cfa204
02/2023, Certificazione Microsoft: Azure Data Fundamentals, Microsoft, https://www.credly.com/badges/3f5653fb-0b75-4fb0-babb-8115a24bc6dc/public_url
12/2022, Certificazione Microsoft: Azure Fundamentals, Microsoft, https://www.credly.com/badges/ea924909-3c1e-485d-8dad-ea4c3b5372d3/public_url

Esperienza di progetto

09/2021 - oggi, Data Architect e Technical Lead, TATA Consultancy Services, Wroclaw, Polonia

Progetto: Piattaforma di dati normativi BFSI per il Wind Down globale(pianificazione del risanamento e della risoluzione) e la gestione degli attivi

Descrizione: Creazione di una piattaforma di dati e reportistica nell'ambito della pianificazione della risoluzione e del risanamento di una banca d'investimento. Si tratta di un playbook mensile di "crisi" e "business as usual" con sviluppo ed esecuzione di una pipeline di dati end-to-end per elaborare complessi calcoli di dati finanziari da vari sistemi a monte.

Ruoli: Architettura dei dati, strategia dei dati, integrazione e analisi dei sistemi.

Strumenti ed Env: Apache Spark (PySpark), Spark Dataframes API, Spark Pipeline Optimization Apache Airflow, AzCopy e Azure Synapse.

Python, GitHub, Jenkins, SQL, Tableau, Jira (Atlassian)

Piattaforma Databricks su Microsoft Azure

Linux, Cloudera Hadoop

06/2019 - 08/2021, Technical lead, TATA Consultancy Services, Pune, India

Progetto: Piattaforma di dati normativi BFSI per OCIR (Continuità operativa nella risoluzione)

Descrizione: Il finanziamento e la tariffazione degli asset e dei servizi delle banche d'investimento richiedono valutazioni e rivalutazioni regolari in OCIR. Il progetto richiede l'acquisizione di tutti gli asset e i servizi finanziari e dei dati di riferimento da proiettare per la ri-stima e la valutazione. Questo obiettivo è stato raggiunto attraverso l'inserimento e l'elaborazione di enormi dati provenienti da tutti i dipartimenti e i servizi per farli coincidere con le proiezioni entro gli SLA.

Ruolo: Ingegnere senior dei Big Data

Strumenti ed Env: Apache Hive, Apache Spark (Python), Impala, GitHub, Jira (Atlassian)

Piattaforma Databricks su Microsoft Azure e Google Cloud

Linux, Cloudera Hadoop

09/2016 - 05/2019, Analista capo senior, Infosys BPM, Pune, India

Progetto: Magazzino dati per la catena di approvvigionamento

Descrizione: Creazione di una piattaforma analitica che prevedeva la progettazione di un data warehouse e di archivi di dati single point of truth per vari sottodomini e un'interfaccia di reporting.

L'obiettivo era quello di acquisire metriche di importazione su base giornaliera, ad esempio,

  • Da approvvigionamento a pagamento
  • Analisi degli scaduti

Ruolo: Architetto e ingegnere dei dati

Strumenti ed Env: AWS, Amazon Redshift, PostgreSql, SQL, PL/PGSQL

09/2013 - 09/2016, Analista programmatore senior, Citicorp Services India Private Limited, Pune, India

Progetto: Ricerca e analisi di Citi

Descrizione: Abilitazione del business con una piattaforma per l'analisi dei Big Data sui seguenti casi d'uso

Registri degli accessi al portale Citi Velocity per comprendere i modelli di accesso degli utenti.

Reporting sui picchi di utilizzo per regione/paese/città con mappatura diretta ai rispettivi server AKAMAI.

Ingestione di datiWeb Click-through e creazione di data mart per l'analisi dei click provenienti dagli abbonamenti di Citi Research.

Ruolo: Sviluppatore di Big Data

Strumenti ed Env: Apache Spark (Python), Impala, Oracle 10g, PLSQL, Talend 5.6 (ETL), Datameer, MYSQL, PIWIK

Cloudera Hadoop, Oracle, Linux, Java

09/2007 - 09/2013, Consulente, Automatic Data Processing India (ADP), Pune, India

Area di lavoro tecnica principale:

SviluppoC#.NET(4.5) su Application Framework utilizzando Entity Framework.

Sviluppo di database ed ETL utilizzando SQL Server 2008 e SSIS

Ruolo: Sviluppatore software

04/2006 - 09/2007, Sviluppatore software, Optimal Info Tech Private Limited, Mumbai, India

Area di lavoro tecnica principale:

Sviluppo software per la soluzione ERP per l'esportazione di capi di abbigliamento(N-Tier) utilizzando le seguenti tecnologie

VB.NET e SQL Server 2005/2008

Risultati ottenuti

  • Creazione di una soluzione end-to-end per Exception Dashboard e Reporting utilizzando Spark con un dashboard liveche consente all'azienda di agire tempestivamente e di risparmiare tempo prezioso (2-3 giorni) per la firma. Questo includeva funzionalità di supporto come: confronto configurabile tra le pipeline per identificare i delta.
  • Migrazione delle pipeline di dati del progetto da Spark 2.0 a Spark 3.0 ottenuta in 2 settimane di periodo sotto pressione, con tempi di inattività critici per il progetto e l'azienda.
  • Ottimizzare lepipeline di dati Spark identificando i colli di bottiglia a diversi livelli per il codice della pipeline, il framework e la piattaforma. Risultato: I modelli identificati sono stati ottimizzati con un miglioramento di quasi il 40% e, sulla base dell'analisi, alcuni modelli sono stati spostati su cluster di DB ottimizzati per il calcolo, ottenendo un eccezionale aumento delle prestazioni del 200%.

Accreditamenti e formazione

  • Architetto di soluzionipartnerdi Databricks Essentials
  • Accreditamento - Databricks Lakehouse Fundamentals
  • Microsoft Azure per l'ingegneria dei dati
  • Google Cloud Platform Big Data e Machine Learning
  • Fondamenti di sfruttamento dei dati non strutturati con Cloud Dataproc su Google Cloud Platform
  • Analisi dei dati senza server con Google BigQuery e Cloud Dataflow

Formazione

07/2005 - 02/2006, Diploma post-laurea in Advance Computing, Advance Computing, Vidyanidhi Info Tech Academy-National Resource Centre of CDAC, India, Mumbai, India

Informatica avanzata

(C, C++, Java, .Net, RDBMS-Oracle, Linux)

07/2005, Laurea in Ingegneria meccanica, Ingegneria meccanica, All India Shri Shivaji Memorial Society's College of Engineering [Pune University], Pune, India

Referenze

Kedar Kulkarni, Citi Technology Canada, kedarkulkarni78@gmail.com, +16478322499
Suraj Pedulwar, Automatic Data Processing India Private Limited, +91 9049156085
Vijay Bhaskar Datla Reddy, Clairvoyant LLC, datla.vijay@gmail.com, +91 9960501199
Karthick Vadivel, Schlumberger, vadivelkarthick1989@gmail.com, +91 9975638603

Media sociali

@charudattadeshmukh - https://www.linkedin.com/in/charudattadeshmukh/
@charudatta007 - https://twitter.com/Charudatta007
@charudattadeshmukh - https://medium.com/@charudattadeshmukh/
Overview della Posizione:

In qualità di Data Architect, sarete la mente dietro la strategia e l'infrastruttura dei dati di un'organizzazione. Il vostro ruolo prevede la progettazione e la gestione di sistemi di dati, garantendo l'accuratezza, la sicurezza e l'accessibilità dei dati. Collaborerà con gli stakeholder per comprendere le esigenze dei dati, creare modelli di dati e supervisionare lo sviluppo dei database. La vostra esperienza nella gestione e nell'architettura dei dati consentirà un utilizzo efficiente dei dati, favorendo un processo decisionale informato e la crescita del business. In qualità di architetto dei dati, svolgerete un ruolo cruciale nella trasformazione dei dati grezzi in informazioni utili per l'organizzazione.

Descrizione della Compagnia:
Citi Bank

Citi Bank, filiale di Citigroup Inc., è un istituto di servizi bancari e finanziari globale. Rinomata per la sua rete capillare e la varietà dei suoi prodotti finanziari, Citi Bank serve milioni di persone, aziende e istituzioni in tutto il mondo. Offrendo un'ampia gamma di servizi, tra cui servizi bancari, prestiti, gestione patrimoniale e altro ancora, Citi Bank si impegna a favorire il progresso finanziario e la crescita economica. Con una storia di oltre due secoli, Citi Bank rimane un partner di fiducia per i clienti che cercano soluzioni e competenze finanziarie complete.

Modifica questo modello utilizzando il nostro strumento per la costruzione del CV.

Let your resume write itself — with AI.

Kickresume’s AI Resume Writer can generate a great first draft of your resume in seconds. Simply enter your job title and let artificial intelligence help you get started.
Create Resume With AI Let your resume write itself — with AI.

Modelli di CV connessi a amministratore di database

Modello di curriculum del responsabile delle informazioni
Modello di curriculum del responsabile delle informazioni
Analisi presso GDIT Esempio di curriculum
Analisi presso GDIT Esempio di curriculum
Esempio di curriculum dell'architetto di soluzioni
Esempio di curriculum dell'architetto di soluzioni

Modelli di lettere di presentazione relazionati a tecnologia dell'informazione

Esempio di lettera di presentazione per ingegnere ottico
Esempio di lettera di presentazione per ingegnere ottico
Esempio di lettera di presentazione per l'incaricato del trattamento dei dati
Esempio di lettera di presentazione per l'incaricato del trattamento dei dati
Esempio di lettera di presentazione per ingegnere wireless
Esempio di lettera di presentazione per ingegnere wireless

Lascia che il CV faccia il suo lavoro.

Join 6.000.000 job seekers worldwide and get hired faster with your best resume yet.

Crea CV
english template stanford template rectangular template