CAS Big Data | BGD

Grosse Datenmengen in Echtzeit analysieren und nutzbar machen? Big Data ist eine der wichtigsten IT-Technologien des Jahrzehnts. Im Fokus stehen möglichst präzise und rasche Vorhersagen für Geschäftsentscheide, das Auffinden kritischer Ereignisse und Muster oder das Auffinden komplexer Zusammenhänge durch Auswertung eigener und globaler Datenquellen. 

Umfeld

Die Methoden und Werkzeuge von Big Data ermöglichen die Beschaffung und Analyse grosser Datenmengen. Die Komplexität der Analysen und die oft kurze Lebensdauer der Daten machen eine massiv parallele und stream-orientierte Verarbeitung der Quellen notwendig, beispielsweise mit einem Hadoop-Cluster. Gegenüber klassischen BI-Methoden ist vor allem die Verschiedenartigkeit und Volatilität der Datenquellen ein wichtiges Merkmal von Big Data. Big Data wird oft über das sogenannte 3V-Modell definiert:

Volume
hohe zu verarbeitende Datenmenge

Velocity
hohe Verarbeitungsgeschwindigkeit, aber auch hohe Alterungsgeschwindigkeit der Quelldaten. Realtime-Ansprüche

Variety
unterschiedlichste Quellen, die gleichzeitig und ad hoc angezapft werden müssen, komplexe Verarbeitungslogik, z.B. Textmining

Zielpublikum

Fach- und Führungskräfte in Unternehmen und IT-Bereichen, die für den Aufbau, die Planung und die Umsetzung von Big-Data-Projekten verantwortlich sind.

Ausbildungsziel

Die Teilnehmenden

  • kennen die methodischen und technologischen Grundlagen von Big Data;
  • lernen Einsatzmöglichkeiten kennen und können im eigenen beruflichen Umfeld neue Ideen zur Nutzung von Big Data und zum Erzeugen eines Business Value entwickeln,
  • besitzen eine fundierte Übersicht über die Architektur von Big-Data-Lösungen,
  • können Big-Data-Projekte in ihrem Unternehmen planen, umsetzen und betreiben;
  • können die Einbettung von Big-Data-Lösungen in die eigene IT-Architektur beurteilen und konzipieren;
  • können globale und firmeninterne Datenquellen und Datenströme in eine Big-Data-Appliance integrieren;
  • kennen moderne Methoden und Werkzeuge zur Aufbereitung, Analyse und Darstellung von Realtime-Datenströmen. In einer umfassenden Fallstudie wird die Konzeption oder Realisierung eines Big-Data-Projektes im eigenen Betrieb erarbeitet.

Vorkenntnisse

Die Teilnehmenden bringen IT-Vorkenntnisse im Rahmen einer Informatik- oder Wirtschaftsinformatik-Ausbildung mit, insbesondere über Datenbanksysteme, Abfragesprachen, Modellierung, Reporting und Analyse. Projekterfahrung im Bereich Informationssysteme ist wünschenswert. In der Semesterarbeit erarbeiten die Teilnehmenden ein eigenes Thema, typischerweise aus dem beruflichen Umfeld.