akademischer Grad | keine Angabe |
Einsatzgebiet | 63263 Bundesrepublik Deutschland, 0km |
Verfügbar ab | aktuell verfügbar |
Verfügbarkeit vor Ort: | Home Office |
Interesse an Festanstellung | Nein |
Bietet Schulungsleistungen an | Nein |
Data Manager
Projekt
Erstellung eines Referenzdatenmodells mithilfe von Data Vault 2.0 im agilen Umfeld
meine Aufgaben
• Anforderungsanalyse
• Strukturierung und Priorisierung der Anforderungen.
• Stakeholdermanagement
• Datenanalyse mit dem Ziel der Datenintegration von Flugdaten aus heterogenen Datenquellen.
• Datenintegration und Steuerung der Ladeprozesse mithilfe des Datavault Builders und des Data Vault 2.0 Ansatzes.
• Implementierung der Anforderungen über Business Rules und anderen Geschäftslogiken mithilfe von SQL (Business Vault).
Technologien
Data Vault 2.0, Datavault Builder, GIT, WinSCP, Oracle 19c, SQL
Data Engineer, Architekt, Scrum Master
Projekt
Analyse, Integration und Bereitstellung von Daten zum Aufbau eines Business
Data Warehouse für das Konzernmarketing mit dem Datavault Builder und Apache Airflow unter Einsatz von Scrum
meine Aufgaben
• Beratung bzgl. Der DataVault 2.0-Methodik
• Enge fachliche Abstimmung mit dem Kunden zur Bestimmung der Identifikation von Businessentitäten aus den Rohdaten
• Datenanalyse zum Zwecke der Anbindung neuer Datenquellen. (Datenqualitätsbestimmung, fachliche Hub Zuordnung, Business Keys etc.)
• Implementierung der Kundenanforderungen unter Einsatz des DataVault Builders (Data Warehouse Automatisierungstool).
• Überwachung der Workflows mithilfe von Apache Airflow
• Schnittstelle bzw. Ansprechpartner zwischen Kunden/Product Owner und Development-Team
• Abstimmung, Dokumentation, Nachverfolgung und Steuerung des Entwicklerteams über JIRA und Confluence
Technologien
Datavault Builder 6.1.3.0, Apache Airflow 1.10.15, SQL Developer 21.4.2, GIT, JIRA, Confluence, Amazon Workspaces, KeePass, WinSCP, AWS S3
Data Engineer, Architekt, Scrum Product Owner
Projekt
Untersuchung, Evaluation und Implementierung des DWH Automatisierungstools DataVault Builder durch den Einsatz der Data Vault 2.0 Technologie
meine Aufgaben
• Technische Vorgaben zur Architektur und Design des Data Vaults
• Verantwortlich für die Bereitstellung der vom Scrum Team benötigten Daten und Modelle
• Erstellung der Produktanforderungen in Form von User und Spike Stories
• Verwaltung und Pflege des Product Backlogs sowie Priorisierung der einzelnen Produktanforderungen
• Zusammenarbeit und Abstimmung mit dem Entwicklungsteam und dem Scrum Master (Planung, Review, Refinement, DoD)
• Überwachung der Fortschritte
• Entwicklung und Vermittlung einer Vision des Endprodukts
Technologien
Data Vault Builder 5.1.3.2, Exasol 7.0, Oracle 18, Big Blue Button 2.2
Projektleiter, Scrum Product Owner
Projekt
APEX – Implementierung
Implementierung, Integration und Vernetzung eines Ticketsystems (Issue-Tracking-System) in die bestehende Unternehmensinfrastruktur
meine Aufgaben
• Einführung von Scrum
• Anforderungs- und Zieldefinition
• Koordination des Teams
• Aufgabenverteilung innerhalt des Teams
• Definition der Projektmeilensteine
• Überwachung der Projektfortschritte inkl. Deadlines (Gantt Diagramm)
• Repräsentation des Projekts nach außen
• Abstimmung zwischen den Stakeholdern
• Abruf der Entscheidungs- und Abstimmungsinstanz bei Bedarf
• Erstellen von Projektstatusberichten (High Level an der Geschäftsführung)
• Projektdokumentation und Unterlagenverwaltung
Technologien
MS Visio, MS Project, Oracle APEX 19.1, Oracle 18, SQL, PL/SQL
Entwickler, Information Security Analyst (for Risk Governance), Business Analyst
Projekt
Hauptprojekt:
Eigenverantwortliche Erstellung und Überwachung von Datenprozessen im Identity and Access Compliance Management
meine Aufgaben
• Dokumentation der Anforderungen der Fachabteilungen
• Erstellung und Anpassungen von Operational Level Agreements (Schnittstellenspezifizierung) zur Beschreibung des Umfangs und Inhaltes der Datenlieferungen
• Einarbeitung und Training von neuen Teammitgliedern (International)
• Analyse, Adaptierung und Einarbeitung des Information Security Controls in das eigene Control Framework, welches das Grundgerüst für das IA Compliance Reporting darstellt
• Review der IT-Infrastrukturlösungen und zentralen Services in Hinblick auf die Datenverfügbarkeit für den Bereich des Identity and Access Control
• Erstellung von SQL Skripten (Oracle 12c) für die Automatisierung von manuellen Berechnungen und Prozessen
Technologien
Oracle 12c, Oracle SQL Developer 17.4.1, Oracle SQL Data Modeler, GIT, MS Visio, SQL, PL/SQL
Entwickler, Softwaretester, Reviewer
Projekt
Umsetzung MiFID II. Verantwortlich für Entwicklung von Schnittstellenexport Kostentransparenz, Zielmarktinformationen und European MiFID Template (EMT)
sowie ETF´s für den Auslandvertrieb. (Terminkritische Aufgabe unter Einhaltung gesetzlicher Vorgaben)
meine Aufgaben
• Analyse der Fachanforderungen
• Entwurf des Datenmodells (Eingabe-, Ausgabedaten)
• Erstellung von Dokumentationen (DV-Konzept, Handbuch etc.)
• Implementierung der einzelnen Schnittstellen zur Kostentransparenz (Transaktionskosten, sonstige wiederkehrende Kosten etc.) an verschiedene Datenbereithaltungsservices
• Implementierung der einzelnen Schnittstellen für die Zielmarktinformationen
• Technische Bewertung, Mapping-Analyse und Implementierung der Schnittstelle „European MiFID Template (EMT)“
• Softwaretests
• Sicherstellung der Datenqualität (DQM)
Technologien
Oracle 12c, PL/SQL Developer, Oracle SQL Developer, IBM Rational Synergy, SQL Developer Data Modeler, IBM Rational Change, Beyond Compare 4, IBM Rational Team Concert 6, SQL, PL/SQL
Datenbankenentwickler
Projekt
Konzeption und Entwicklung eines Zeiterfassungstools mit Oracle Application Express (APEX)
meine Aufgaben
• Konzeption des Datenmodells
• Erstellung der Pflegemasken
• Datenbankentwicklung auf Basis von SQL und PL/SQL
• Implementierung und Nutzung von Feedback zum benutzergetriebenen Testen
Technologien
Oracle Database 12c, Oracle SQL Developer, APEX 4.1, SQL, PL/SQL
Entwickler, Business Analyst, technischer Berater
Teilprojekt
Datenqualitätsmessung der europäischen Flugsicherungsdatenbank EAD und Einführung eines Datenqualitätssicherungsprozesses
meine Aufgaben
• Erfassen, festlegen und priorisieren der Qualitäts-anforderungen
• Auswahl geeigneter Datenqualitätskriterien
• Implementierung der Datenqualitätskriterien
• Messung der vorhandenen Datenqualität
• Analyse der Fehlerursachen, Kategorisierung der Fehler
• Data Cleansing
• Implementierung eines Verfahrens zur permanenten Überwachung und Sicherstellung der Datenqualität
• Administration der aeronautischen Datenbank AeroDB (Oracle 12c)
Technologien
Oracle Database 11g/12c, Oracle SQL Developer, Linux, Talend Open Studio, Eclipse IDE
Teilprojekt
Qualitätsanalyse der europäischen Flugsicherungsdatenbank EAD
Meine Aufgaben
• Erfassung der Aufgaben- und Problemstellung
• Erstellung einer Machbarkeitsstudie
• Ist-Analyse
• Entwurf der Software- und Schnittstellenarchitektur
• Grafische Abbildung mit Entity-Relationship-Modell nach Chen
• Datenmodellierung
• Datenextraktion und -transformation
• Software-Entwurf mit UML
• Entwicklung von Algorithmen zur Mustererkennung
• Implementierung eines Datenbankabgleich-Tools mit GUI in Java
• Usability-Tests
• Evaluation und Präsentation von Ergebnissen
Technologien
Oracle Database 11g/12c, Oracle SQL Developer, Java, Eclipse IDE