DE EN

Dualer Master (m/w) im Bereich Data Analytics, Big Data & IoT Deutsche Telekom AG

Darmstadt

Arbeiten bei der Deutschen Telekom AG
Talent und Telekom – das passt zusammen! Was für uns spricht: Wir sind ein globaler Konzern, als führender ICT-Dienstleister besonders innovativ, ein Zukunftsunternehmen, das die Gigabit-Gesellschaft erst möglich macht. Überzeugt? Dann bewerben Sie sich für unser Duales Masterprogramm, Praxisnähe und Coaching inklusive!

KURZINFOS & STANDORTE

Stellen-ID: 49322

IHRE AUFGABEN

Als Dualer Master (w/m) im Studiengang Wirtschaftsinformatik an der Hochschule für Telekommunikation Leipzig (HfTL) übernehmen Sie bei uns ab 01. Oktober 2017 folgende Aufgaben:

  • Einarbeitung in fachliche Fragestellungen aus dem Bereich M2M/IoT - "Predictive Maintenance"
  • Einarbeitung in ausgewählte Algorithmen zur Datenanalyse/Data Mining sowie modernen Visualisierungsansätzen
  • Einarbeitung in die Entwicklung von Big Data Applikationen auf Basis von Apache Hadoop mit Schwerpunkt auf Streaming und Near-Realtime Analyse
  • Erstellung von Prototyp-Implementierung auf Basis von Algorithmen aus dem Kontext Machine Learning und Anwendung auf realen Daten unter Nutzung unterschiedlicher Tools aus dem Big Data Kontext (Schwerpunk Hadoop Ökosystem; R; Python)
  • Durchführung, Analyse, Dokumentation und Bewertung der Ergebnisse vor dem Hintergrund der fachlichen Anforderungen im Projekt
  • Erstellung von Ergebnisdokumentationen

IHR PROFIL

Sie verfügen zum Studienstart über ein abgeschlossenes Studium, vorzugsweise der Wirtschaftsinformatik oder eines vergleichbaren naturwissenschaftlich-technischen Studiengangs. Darüber hinaus bringen Sie folgende Qualifikationen und Kenntnisse mit:

  • Sehr gute Kenntnisse aus den Fachbereichen Statistik, KI, Machine Learning oder Operations Research
  • Sehr gute Programmiersprachenkenntnisse – idealerweise in einer Hoch- (z.B. Java, Scala) und einer Scriptsprache (z.B. Python, R), sowie IT-Kenntnisse auf Basis Linux/Unix
  • Sehr gute Kenntnisse in der Abfrage von Datenbanken (insbesondere SQL)
  • Grundlegende Softwareentwicklungskompetenzen (Versionsverwaltungssystemen und IDEs)
  • Großes Interesse und/oder bereits erste Erfahrungen in Big Data (Hadoop Ökosystem), Cloud (Azure) und Virtualisierungstechnologien (Docker)
  • Grundlegende Erfahrungen in den typischen Prozessschritten bei der Datenanalyse: Datenexploration, -aufbereitung, Modellierung, Validierung und Visualisierung
  • Ausgeprägte analytisch und konzeptionelle Fähigkeiten sowie hohe Strukturiertheit und Eigeninitiative
  • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift

Bewerbungsschluss: 2017-09-17

Details

Apply now
Click on “Apply now” to being redirected to the web form for your online application. After your login, you can start the application directly. Good luck!