TUD Logo

TUD Startseite » ... » Fakultät Informatik » Forschung » Wissenschaftliche Vorträge

Fakultät Informatik

against racism

Wissenschaftliche Vorträge

Modellierung des Workflows bei Auftragsdatenverarbeitung

Präsentation der Studienarbeit (Großer Beleg) von Holger Kaul (Institut für Systemarchitektur, Datenschutz und Datensicherheit)

28.4.2015, 13:00 Uhr, APB E006

Das Auslagern der Verarbeitung von personenbezogenen Daten erfordert eine Reihe von rechtlichen, vertraglichen und organisatorischen Schritten. Diese lassen sich dem Bundesdatenschutzgesetz (BDSG) bzw. den Landesdatenschutzgesetzen und zukünftig ggf. entsprechenden EU-Regulierungen entnehmen. Ziel der Arbeit ist es, den daraus resultierenden Workflow mit Hilfe des Informationssicherheitsmanagementsystems „verinice“ der Firma SerNet GmbH zu modellieren. Dabei sind das Bundesdatenschutzgesetz und das sächsische Landesdatenschutzgesetz (LDSG) zu berücksichtigen. Gemeinsamkeiten und Unterschiede sind herauszuarbeiten und bei der Umsetzung zu berücksichtigen. Dabei ist auf eine sinnvolle Modularisierung zu achten, so daß Änderungen und Ergänzungen leicht vorgenommen werden können (beispielsweise: Berücksichtigung weiterer Landesdatenschutzgesetze).
Der mit Hilfe des Werkzeuges „verinice“ modellierte Workflow soll den Benutzer sowohl bei der Planung als auch bei der Durchführung und der Kontrolle der notwendigen Schritte unterstützen. Dies beinhaltet unter anderem die Erstellung der notwendigen Dokumentation bezüglich einer konkreten Auftragsdatenverarbeitung.
Das Werkzeug „verinice“ wird als Open-Source-Software kostenfrei zur Verfügung gestellt und kann insofern durch eigene Implementierungen erweitert werden. Die Entwicklung soll dabei in enger Absprache mit der Stabstelle Informationssicherheit der TUD (Anwendersicht) und der Firma SerNet GmbH (Entwicklersicht) erfolgen.


„Analyse der Energie-Effizienz paralleler Anwendungen auf der Basis von Hardware-Performance-Countern“

Präsentation der Studienarbeit (Großer Beleg) (alle Studiengänge) von Michael Werner

28.4.2015, 16:30 Uhr, APB 1004 (Ratssaal)

Die Anzahl der Kerne in Multicore-Prozessoren erhöhen sich aufgrund des mooreschen Gesetzes stetig. Dabei teilen sich die Kerne typischerweise einen Teil der Ressourcen, wie z.B. den Last-Level-Cache und den integrierten Speichercontroller. Gemeinsamen Ressourcen können die Performance paralleler Programme limitieren. In diesem Fall ist es unter Umständen möglich die Energie-Effizienz zu verbessern, in dem die Taktfrequenz verringert wird.
Anhand von Messungen der Skalierung von Laufzeit der SPEC OMP Benchmarks mit der Taktfrequenz werden Programmphasen identifiziert, die nicht linear mit der Taktfrequenz skalieren.
Anschließend wird mit Hilfe von Hardware-Performance-Countern untersucht, ob es eine Korrelation zwischen der Auslastung von gemeinsamen Ressourcen und schlechter Skalierbarkeit gibt.

Diese Veranstaltung wird unterstützt von Professur für Rechnerarchitektur.


Performance Optimization, Elasticity and Sustainability in BigData Cloud Computing

Wissenschaftlicher Vortrag (alle Studiengänge) von Prof. Xiaobo Zhou (Department of Computer Science, University of Colorado, Colorado Springs)

27.5.2015, 15:00 Uhr, APB 1004 (Ratssaal)

MapReduce, a parallel distributed programming model on clusters of commodity hardware, has emerged as the de facto standard for big data analytics. Big data analytics usually require distributed computing at scale which is often hard to afford for small business and institutes. Large MapReduce clusters also suffer from issues like low cluster efficiency. Cloud computing, unlocked by virtualization technology, allows the creation of dynamic virtual clusters with elastic resource allocation. Moving MapReduce into the cloud seems to be the promising future of efficient and affordable big data analytics. However, the heterogeneity, high dynamics and multi-tenancy of the Cloud, and the semantic gap between the MapReduce runtime and the resource manager of the cloud platform make building elastic and efficient virtual MapReduce clusters very challenging. This talk focuses on performance optimization and energy efficiency of BigData processing in the cloud. Specifically, it presents Ant, an adaptive task tuning approach that aims to automatically find the optimal MapReduce parameter settings for individual tasks running on different nodes, be it in a physical heterogeneous cluster or a virtual cluster in the cloud. It then introduces FlexSlot, a flexible slot management for moving Hadoop into the Cloud. FlexSlot provides a user-transparent task slot management scheme that coordinates the slot-based resource management of Hadoop with underlying cloud infrastructure. Furthermore, this talk discusses energy efficiency and sustainability of datacenter cloud computing. In specific, it presents ePower, an elastic power-aware resource provisioning of heterogeneous workloads in self-sustainable datacenters. The talk will conclude with discussions for potential research collaborations in the related fields.



Suche im Ankündigungsarchiv


Abonnieren Sie die Vortragsankündigungen als News Feed: RSS

Stand: 27.4.2015, 14:04 Uhr
Autor: Webmaster