TUD Logo

TUD Startseite » ... » Fakultät Informatik » Forschung » Wissenschaftliche Vorträge

Fakultät Informatik

against racism

Wissenschaftliche Vorträge

Distributed Data Usage Control

Wissenschaftlicher Vortrag von Alexander Pretschner (Institut für Systemarchitektur, Datenschutz und Datensicherheit)

1.9.2014, 10:00 Uhr, INF 3105 (Beratungsraum, 3. Etage)

Distributed data usage control is concerned with what happens to data once it is given away ("delete after 30 days;" "notify me if data is forwarded;" "copy at most twice"). In the past, we have considered the problem in terms of policies, enforcement and guarantees from two perspectives:
(a) In order to protect data, it is necessary to distinguish between content (a song by Elvis called "Love me Tender") and representations of that content (song.mp3; song.wav, etc.). This requires efficient data flow-tracking concepts and capabilities in data usage control frameworks.
(b) The representations exist at different layers of abstraction: a picture downloaded from the internet exists as pixmap (window manager), as element in the browser-created DOM tree (application), and as cache file (operating system). This requires the data flow tracking capabilities to cross the single layers to which they are deployed.
In distributed systems, it has turned out that another system can be seen as another set of abstraction layers, thus generalizing the basic model. Demo videos of our work are available at http://www22.in.tum.de/forschung/distributed-usage-control/.

In this talk, we present the general model and its implementations. We also present recent extensions of our work. We show how to use our approach to not only protect entire data items but possibly also fractions of data items. This allows us to specify and enforce policies such as "not more than 20% of the data may leave the system", evidently leading to interesting questions concerning the interpretation of "20%“, and if the structure of data items cannot be exploited. We present a respective model, an implementation, and experimental results. Time permitting, we will finally discuss how to use precomputed static analysis results in a dynamic multi-layer context.


Metaphern für personalisierte Privacy-fördernde Kontextmodellierung

Präsentation der Studienarbeit (Großer Beleg) von Sarah Hausmann (Institut für Systemarchitektur, Datenschutz und Datensicherheit)

2.9.2014, 10:00 Uhr, INF 3105 (Beratungsraum, 3. Etage)

Die Entwicklung von Konzepten zur personalisierte Kontextmodellierung für die Durchsetzung von Privacy-Zielen stand im Fokus vorangegangener Studentenarbeiten [1,2]. Um den Endnutzern der personalisierten Kontextmodellierung die Konzepte nahezubringen und die Akzeptanz dieser zu erhöhen, sollen in diesem Großen Beleg entsprechende Metaphern entwickelt werden. Diese Metaphern sollen sich an Sinnbildern aus der den Benutzern bekannten Welt orientieren. Im Rahmen dieser Arbeit sollen zudem die Metaphern entsprechend evaluiert werden.


Huch, wo ist meine Architektur hin?

Wissenschaftlicher Vortrag (alle Studiengänge) von Oliver Gierke

4.9.2014, 19:00 Uhr, INF E023

Wenn Applikationen über eine bestimme Größe oder einen bestimmten Zeitraum hinaus wachsen wird Modularität ein Kernaspekt für Wartbarkeit. Designentscheidungen die getroffen wurden sind kaum noch im Code wiederzufinden, Abhängigkeiten zwischen einzelnen Modulen der Applikation wachsen oft wild.
Der Vortrag stellt Patterns und Best Practices rund um generelle Code-Organisation und Package-Strukturen vor um eine solide Grundlage für langlebige Java-Applikationen zu legen, sowie eine Möglichkeit mit Spring lose gekoppelte Komponenten und dedizierte Erweiterungspunkte in Applikationen zu definieren und zu verwenden.

Diese Veranstaltung wird unterstützt von JUG Saxony.


Einordnung und Bewertung jüngst modifizierter BF/MLG-Dekodierungsalgorithmen

Präsentation der Bachelor-Arbeit von Alexander Kropp

11.9.2014, 13:00 Uhr, INF 3105 (Beratungsraum, 3. Etage)

Zur Schließung der Lücke zwischen den weniger komplexen hard-decision Dekodierungsalgorithmen bit-flipping (BF) und majority-logic (MLG) und den soft-decision Dekodierungsalgorithmen wird mit hybriden, zuverlässigkeitsbasierten BF/MLG-Modifizierungen experimentiert. Neben bekannten Algorithmen wie weighted und improved modified BF oder hard reliability-based MLG existieren neue, auch kombinierte Modifizierungen. Diese sind zu eruieren, rechentechnisch umzusetzen und experimentell zu untersuchen und mit bekannten Modifizierungen zu vergleichen. Es ist aufzuzeigen, ob mögliche Leistungsverbesserungen mit wie viel zusätzlicher Komplexität erkauft werden. Ergeben sich aus den betrachteten Modifizierungen weitere untersuchungswerte Kombinationsmöglichkeiten.


Erkennung von Manipulationen im PDF-Format

Präsentation der Diplomarbeit von David Müller (Institut für Systemarchitektur, Datenschutz und Datensicherheit, dence GmbH)

29.9.2014, 10:00 Uhr, INF 3105 (Beratungsraum, 3. Etage)

Das PDF-Format bildet den Defacto-Standard für den Austausch digitaler Dokumente. Es wurde für eine einheitliche Darstellung von Inhalten auf unterschiedlichen Plattformen optimiert. Im Gegensatz zu Microsoft Word- oder OpenOffice-Dokumenten existieren nur eingeschränkte Möglichkeiten zur Manipulationen von PDF-Dokumenten. Die große Verbreitung des PDF-Formats bei der Speicherung von wichtigen Dokumenten, wie Rechnungen oder Berichten, macht Untersuchungen zu den grundlegenden Möglichkeiten der Manipulation sowie deren Erkennung notwendig.
Ziel der Diplomarbeit ist es erste Ansätze für die Erkennung von manipulierten PDF-Dokumenten zu entwickeln und praktisch zu evaluieren. Hierfür soll zunächst mit einer Vorstellung des PDF-Formats und der wichtigsten Datenstrukturen begonnen werden. Viele Programme zur Erstellung und Bearbeitung von PDF-Dateien unterstützen lediglich einen Teil des gesamten PDF-Standards. Auch sind Unterschiede in der praktischen Umsetzung des PDF-Standards in den gespeicherten Dateien zu erwarten. Diese Unterschiede können Anhaltspunkte für die Erkennung von manipulierten PDF-Dokumenten liefern und sollen praktisch untersucht werden. Dazu sollen einerseits die prinzipiell existierenden Möglichkeiten zur Manipulation von PDF-Dokumenten erfasst und einer Testdatensatz von originalen und manipulierten PDF-Dokumenten erstellt werden. Darauf aufbauend gilt es Spuren in manipulierten PDF-Dokumenten zu identifizieren und hinsichtlich einer forensischen Nutzung zu bewerten. Eine Diskussion und Bewertung der Ergebnisse schließen die Arbeit ab.



Suche im Ankündigungsarchiv


Abonnieren Sie die Vortragsankündigungen als News Feed: RSS

Stand: 2.8.2014, 10:33 Uhr
Autor: Webmaster