Data Engineer bei Hellofresh Lebenslaufbeispiel

Eingestellt von: HelloFresh

Discover new ways to improve your resume by editing this Data Engineer at HelloFresh resume sample. This particular resume helped one of our customers secure their position at HelloFresh. That job seeker allowed us to share their resume with you. Download this resume example as it is or try to redesign it using our HR-approved resume builder.

Korrektur-Beispiel mit KI
1 M+ Jobsuchende
Dieser Musterlebenslauf wurde von einer echten Person zur Verfügung gestellt, die mit der Hilfe von Kickresume eingestellt wurde. Erstelle deinen Lebenslauf jetzt oder bearbeite diesen Beispiellebenslauf.
War diese Vorlage hilfreich? Bewerten Sie ihn!
Durchschnitt: 4.8 (11 Stimmen)

Data Engineer bei Hellofresh Lebenslaufbeispiel (Volle Textversion)

Patric Nehera

Nationalität: Amerikaner
E-Mail-Adresse: hello@kickresume.com
Telefonnummer: 555-555-555
Internet: www.kickresume.com

Profil

Hochqualifizierter Softwareentwickler mit mehr als fünf Jahren Erfahrung in der Entwicklung optimaler und innovativer Lösungen. Anerkannt für außergewöhnliche Fähigkeiten in den Bereichen Ideenfindung, Führung und Design.

Ausbildung

06/2014 - 05/2018, B. Tech, Informatik, Nationales Institut für Wissenschaft und Technologie, Brahmapur, Odhisha, Indien
02/2010 - 04/2013, ICSE & ISC, Informatik, Kirchenschule Beldih, Jamshedpur, Jharkhand, Indien

Berufserfahrung

09/2022 - heute, SDE II, Groupon, Bengaluru, Karnataka, Indien
  • Leitete die Umstrukturierung der bestehenden Datenpipeline, implementierte die inkrementelle Verarbeitung und führte eingehende Analysen durch, um redundante Geschäftsattribute zu identifizieren und zu entfernen.
  • Implementierung einer Object Lifecycle Management (OLM)-Richtlinie für Google Cloud Platform (GCP)-Speicher, was zu einer jährlichen Kostensenkung von 76.000 US-Dollar führte.
  • Entwicklung und Bereitstellung eines Datenbereinigungsskripts, das die Bereinigung von Objekten automatisiert.
  • Leitung der POC, Entwicklung und Integration von Bigtable in das bestehende System
  • Überarbeitung der Benutzersegmentierungs-Engine durch Einteilung der Benutzer in drei verschiedene Kategorien zur Verbesserung der Leistung und der Geschäftskosten.
  • Erfolgreiche Migration eines komplexen Spark-Streaming-Dienstes von einer lokalen Infrastruktur zu GCP, wobei die durch das Kundenverhalten ausgelösten Aktionen optimiert wurden.
  • Experte in der Wartung kritischer Systeme für optimale Zuverlässigkeit, versiert in der Fehlersuche und erfahren im Incident Management.
  • Nachgewiesene Erfahrung in der Optimierung von Diensten mit niedriger Latenz, die Spitzenleistung gewährleisten & Erfahren in der Erstellung von Profilen für Produktionsanwendungen, um Leistungsengpässe zu erkennen und zu beheben.
02/2022 - 09/2022, Senior Dateningenieur, Flipkart, Bengaluru, Karnataka, Indien
  • Arbeit an einem GCP-Migrationsprojekt und der Bearbeitung von Geschäftsanfragen.
  • Erstellen von Fakten gemäß Geschäftsanforderung
  • Arbeit an einem Faktenredundanzprojekt zur Optimierung der Kosten und des Platzes
01/2021 - 02/2022, Datenplattform-Ingenieur, Paytm, Bengaluru, Karnataka, Indien
  • Entwicklung eines zentralisierten Datenkatalogs für die Einhaltung von Vorschriften in Hadoop, Integration mit Unternehmensdaten-Tools.
  • Entwurf und Implementierung von OLAP-Systemen zur Verbesserung der Datenanalyse und -berichterstattung.
  • Leitete die Migration des EMR-Clusters (v5.3.0 auf v6.3.0) und das Spark-Upgrade (v2.4.7 auf v3.1.0) zur Verbesserung der Leistung.
  • Erstellung eines automatisierten S3 Cleaner-Tools zur Optimierung der Datenspeicherung und des Kostenmanagements.
  • Durchführung von POCs mit verschiedenen Technologien als Grundlage für strategische Entscheidungen.
  • Optimierung der Spark-Leistung für eine effiziente Datenverarbeitung.
  • Entwicklung eines Data-Builder-Microservice für die nahtlose Aktualisierung von Metadaten.
  • Einführung eines Data-Steward-Microservice für die manuelle Metadatenkontrolle.
  • Integration von AWS Deequ für eine verbesserte Datenqualitätssicherung.
  • Implementierung der Funktion zur Erkennung von Datenanomalien mithilfe von Deequ-Metriken.
  • Gekonnter Einsatz von Docker für produktionsreife Python-Anwendungen.
  • Identifizierung und Meldung eines kritischen Fehlers während der EMR-Migration.
  • Vorschlag von Lösungen für die Herausforderungen der automatischen Skalierung von YARN.
02/2020 - 01/2021, Dateningenieur, KPMG | Kunde - Goldman Sachs, Bengaluru, Karnataka, Indien
  • Leitete ETL und verbesserte die Unterstützung der Teams für maschinelles Lernen.
  • Erfüllte eine Schlüsselrolle als Produktionsingenieur, der sich der Optimierung der Produktleistung widmete.
  • Er entwickelte ein innovatives Preisfindungstool, das zu präzisen Berechnungen und einer Reduzierung der Maklerausgaben führte.
  • Entwickelte eine Anwendung für ETL. Dadurch wurden unnötige Maklergebühren vermieden, was zu erheblichen Kosteneinsparungen führte.
  • Optimierte das Design einer bestehenden Anwendung, was zu einer deutlichen Verbesserung der Leistungskennzahlen führte.
  • Übernahme der Verantwortung für das Onboarding von Big-Data-Anwendungen auf AWS-Clustern und Gewährleistung der nahtlosen Integration und des Betriebs.
  • Pionierarbeit bei der Entwicklung einer Echtzeit-Stream-Processing-Anwendung, die eine sofortige Datenverarbeitung und -analyse ermöglicht.
06/2018 - 02/2020, Dateningenieur, Mindtree | Kunde - JW Marriot, Bengaluru, Karnataka, Indien
  • Leitung eines Technologie-Migrationsprojekts zur Aufrüstung des Revenue-Management-Systems mit modernsten Technologien zur Echtzeitverarbeitung.
  • Entwicklung und Automatisierung einer robusten ETL-Pipeline für den nahtlosen Datenfluss zwischen verschiedenen Softwaresystemen.
  • Orchestrierung komplexer Workflows zur Planung und Verwaltung von Hadoop-Jobs und Optimierung der Datenverarbeitung.
  • Entwicklung einer verteilten Datenverarbeitungsanwendung zur Optimierung der systemübergreifenden Datenverarbeitung, um die Effizienz des Gesamtsystems zu steigern.
  • Verwaltung strukturierter und unstrukturierter Daten, einschließlich Datenerstellung, -speicherung, -aggregation, -transformation und -präsentation, während Hadoop-Jobs in die Cloud integriert wurden.
  • Automatisierte die Erstellung von Hadoop-Job-Berichten, wodurch Prozesse rationalisiert und wertvolle Zeit gespart wurde.

Auszeichnungen

  • Ausgezeichnet vom ehrenwerten Chief Minister & Chief Executive Officer Startup Secretariat & IED, Odisha.
  • 1st Runner Up des Smart India Hackathon 2017 unter dem Department of Tourism of India.
  • Qualifiziert für ACM-ICPC (International Collegiate Programming Contest) 2016, 2017 Regional/Asia Finals.
  • Competitive Coding: Rang 187 bei Google Kick Start 2017, Hacker Rank- Code Sprint 6 & 9, Bronzemedaille
  • Qualifiziert für Facebook & Google Code Jam Runde 2, 2016.

Skills

Programmiersprache - Scala, Python, Java
Datenbank - MS SQL, MySQL, PostgresSQL
Devops - Docker, Kubernetes, CI/CD, Jenkins
Wolke - AWS, GCP
SDLC - Agil, WaterFall, Iterativ
Verteiltes System
Big Data Framework - Spark, Airflow, NiFi, Kafka, Atlas, ES, Solr, Cassandra, Hbase, Hive, BigTable

Bescheinigungen

  • AWS CLP-zertifiziert
  • Neuronales Netzwerk & Deep Learning
  • Einführung in die Datenwissenschaft
Stellenübersicht:

As a Data Engineer, you will be responsible for designing, building, and maintaining scalable data pipelines and infrastructure. Responsibilities include gathering and processing raw data, transforming and storing it in data warehouses or databases, and ensuring data quality and integrity. Collaborate with data scientists, analysts, and other stakeholders to understand data requirements and implement solutions to meet their needs. Utilize your expertise in programming languages like Python, SQL, and tools such as Apache Spark or Hadoop to develop efficient data processing workflows. Stay updated on emerging technologies and best practices in data engineering to continuously improve data infrastructure and processes. Join our team to play a crucial role in building and optimizing data pipelines that enable data-driven decision-making and insights.

Unternehmensübersicht:
HelloFresh

HelloFresh is a prominent meal kit delivery service, providing customers with convenient and nutritious meal solutions. Founded in 2011, HelloFresh offers a diverse menu of chef-curated recipes and pre-portioned ingredients delivered directly to customers' doorsteps. With a focus on freshness, quality, and sustainability, HelloFresh aims to simplify home cooking while inspiring people to enjoy delicious, homemade meals. The company's flexible subscription options and user-friendly platform make it a popular choice for individuals and families seeking convenient and enjoyable dining experiences.

Bearbeite dieses Muster mit unserem Lebenslauf-Generator.

Lass deinen Lebenslauf sich selbst schreiben - mit KI!

Der KI-Lebenslauf-Verfasser von Kickresume kann in Sekundenschnelle einen ersten Entwurf deines Lebenslaufs erstellen. Gib einfach nur deine Berufsbezeichnung ein und lass dir von der künstlichen Intelligenz helfen, zu beginnen.
Erstelle einen Lebenslauf mit KI Lass deinen Lebenslauf sich selbst schreiben - mit KI!

Ähnliche IT Lebensläufe

Google Teamleiter Lebenslauf Muster
Google Teamleiter Lebenslauf Muster
Datenarchitekt bei der Citi Bank Lebenslaufbeispiel
Datenarchitekt bei der Citi Bank Lebenslaufbeispiel
Etl tester Lebenslauf Muster
Etl tester Lebenslauf Muster

Ähnliche IT Anschreiben

Backend-Entwickler Anschreiben Beispiel
Backend-Entwickler Anschreiben Beispiel
Sheridan College Teacher's Assistant - Java Intern Anschreiben Beispiel
Sheridan College Teacher's Assistant - Java Intern Anschreiben Beispiel
Muster eines Anschreibens für einen Assistenzprofessor für Informatik
Muster eines Anschreibens für einen Assistenzprofessor für Informatik

Überlasse deinem Lebenslauf die Arbeit.

Gesell dich zu den weltweit 6.000.000 Jobsuchenden und finde schneller eine Anstellung mit deinem bis jetzt besten Lebenslauf.

Lebenslauf erstellen
english template stanford template rectangular template