TUD Logo

TUD Startseite » ... » Fakultät Informatik » Forschung » Wissenschaftliche Vorträge

Fakultät Informatik

against racism

Wissenschaftliche Vorträge

Kooperative Informationsextraktion aus Geschäftsdokumenten auf Basis weniger Trainingsbeispiele

Verteidigung im Promotionsverfahren von Dipl.-Inf. Daniel Esser (Institut für Systemarchitektur, Lehrstuhl Rechnernetze)

5.11.2014, 11:15 Uhr, INF 1004 (Ratssaal)

Die automatische und selbstlernende Informationsextraktion von relevanten Daten aus digitalen und digitalisierten Geschäftsdokumenten ist eine geläufige Funktionalität im Bereich des Dokumentenmanagements und der Dokumentenarchivierung. Die gewonnenen Informationen können für die weitere Bearbeitung der Dokumente im Rahmen des Unternehmensworkflows oder zur Verbesserung der Dokumentensuche verwendet werden. Insbesondere große und mittlere Unternehmen profitieren schon heute von kommerziellen, speziell an ihre Bedürfnisse angepassten Lösungen und erreichen so bedeutende Einsparungen gegenüber der händischen Verarbeitung der Dokumente. Aufgrund der bei lernenden Systemen notwendigen und häufig sehr langen Trainingsphase und des hohen Aufwandes zur Erstellung einer ausreichend großen Menge an Beispieldokumenten eignen sich heutige Lösungen für Kleinstunternehmen und Privatpersonen in der Regel nicht. Die initiale Einrichtung und kontinuierliche Pflege der Wissensbasis übersteigt oftmals deren begrenzte Kapazitäten. Um dieser Zielgruppe dennoch eine automatische Extraktion zu ermöglichen, bedarf es Lösungen, die auf deren spezielle Anforderungen zugeschnitten sind. Entscheidend sind hierbei die Minimierung des Konfigurationsaufwandes zur Einrichtung und zum Betrieb des Extraktionssystems und die Maximierung der Extraktionsperformance unter der Prämisse einer sehr geringen Anzahl an annotierten Beispieldokumenten. Im Rahmen dieser Arbeit wird ein kooperatives, schnelllernendes und ressourcensparendes Informationsextraktionssystem entworfen, das den Bedürfnissen und Eigenheiten der bisher wenig berücksichtigten Kleinstunternehmen und Privatpersonen genügt. Hierzu werden Techniken des maschinellen Lernens und der verteilten Informationsextraktion adaptiert und auf die Domäne der Geschäftsdokumentenverarbeitung zum Zwecke der Klassifikation und Extraktion angewendet. Ziel ist das Erreichen eines konfigurationsfreien One-Shot-Learnings mit Klassifikations- und Extraktionsraten auf dem Niveau existierender Lösungen und damit einhergehend eine Steigerung der Akzeptanz der Zielgruppe gegenüber automatischen Informationsextraktionssystemen.


Untersuchungen zu multimodalen Interaktionskonzepten für Anwendungen mit dem Schwerpunkt Visualisierung von Performance-Daten

Präsentation der Diplomarbeit (alle Studiengänge) von Denny Röhrig

11.11.2014, 9:00 Uhr, WIL C207, Zellescher Weg 12-14

In der Welt der parallelen Programmierung sind graphische Analysewerkzeuge ein wichtiges Hilfsmittel zur Auswertung von Performance-Daten. Viele Visualisierungswerkzeuge sind in ihrem Funktionsumfang über die Jahre gewachsen, nutzen allerdings das seit über 30 Jahren bekannte WIMP-Konzept. Die Arbeit beschäftigt sich deshalb mit neuen Bedienkonzepten für diesen Aufgabenbereich.
Es wird eine Anwendung mit einem multimodalen Interaktionsmodell entwickelt, das bekannte und neuartige Ein-/Ausgabegeräte vereint. Berücksichtigt werden unter anderem das schon verbreitete Multi-Touch oder die kommenden VR-Brillen. Um die wachsende Kluft zwischen zunehmender Funktionalität von Systemen und stagnierender Fähigkeiten des Nutzers zu kompensieren, wird ein Baukasten-Prinzip als Lösung eingeführt. Eine Verknüpfung von Bedienung und unterschiedlichen Diagrammarten für Performance-Daten vervollständigt die Untersuchung.
Im Ergebnis wird deutlich, dass Visualisierungswerkzeuge großes Potenzial für bessere User Experience besitzen.

Diese Veranstaltung wird unterstützt von Professur für Rechnerarchitektur.


Effizienzverbesserung von sicheren Netzwerkkodierungsverfahren durch Pipelining

Präsentation der Bachelor-Arbeit von Marvin Biedermann (Institut für Systemarchitektur, Datenschutz und Datensicherheit)

11.11.2014, 13:00 Uhr, INF E08

Durch Netzwerkkodierung kann Durchsatz, Energieeffizienz und Zuverlässigkeit der Datenübertragung gesteigert werden. Um die Übertragung der Datenpakete auch im Fall von Paketverlusten durch Fehler oder Angriffe sicherzustellen, wird auch für Netzwerkkodierung die Verwendung von Acknowledgments in der Literatur diskutiert. Ehe der Sender das Senden einer Generation beendet, wartet er auf Acknowledgments des bzw. der Empfänger. In Abhängigkeit von der Länge des Pfades zwischen Sender und Empfänger kann es hierbei zu größeren Verzögerungen kommen, außerdem steigt die Anzahl der notwendigen Sendeoperationen. Eine Möglichkeit, dem entgegenzuwirken, ist das parallele Arbeiten mit mehreren Generationen (Pipelining).
Im Rahmen dieser Arbeit sind Möglichkeiten der Effizienzverbesserung durch Pipelining im Fall von Unicast-Übertragungen zu untersuchen. Dabei ist davon auszugehen, dass verfälschte Pakete von Zwischenknoten und Empfänger erkannt und aussortiert werden. Für die Effizienz relevante Parameter wie Generationsgröße, Anzahl paralleler Generationen oder Anzahl zu sendender Acknowledgements sind zu bestimmen und geeignete Werte der Parameter in praktischen Tests unter Beachtung möglicher Angriffe zu ermitteln. Die erreichte Effizienz im Vergleich zur Verwendung nur einer aktiven Generation, aber auch im Vergleich zum Senden ohne Netzwerkkodierung, ist anhand geeigneter Parameter zu bewerten.


Optimierung von Parametern für sichere Netzwerkkodierung

Präsentation der Bachelor-Arbeit von Matthias Vetter (Institut für Systemarchitektur, Datenschutz und Datensicherheit)

11.11.2014, 13:00 Uhr, INF E08

Um die Sicherheit der Kommunikation sicherzustellen, ist auch bei Netzwerkkodierung der Einsatz von Sicherheitsmechanismen erforderlich, wodurch die Effizienz des Verfahrens beeinflusst wird. Die erreichbare Effizienz wird sowohl vom gewählten Sicherheitsmechanismus (z.B. dem kryptographischen Algorithmus) und dessen Parametern als auch von allgemeinen Parametern für Netzwerkkodierung wie Paketgröße oder Generationsgröße bestimmt.
Gegenstand der Arbeit ist die Untersuchung der Optimierung von Parametern sicherer Netzwerkkodierungsverfahren. Zum einen sind die Kommunikationsszenarien durch zu übertragende Datenmenge oder Netztopologie beschrieben, zum anderen sind Anforderungen der Anwendung an Effizienzgrößen wie Verzögerung, Durchsatz, Anzahl der Sendeoperationen oder Speicherbedarf zu erfüllen. Die Effizienzparameter können nicht alle gleichzeitig optimiert werden, es kann jedoch davon ausgegangen werden, dass je nach Anwendung eine unterschiedliche Wichtung dieser Größen vorliegt, u.U. mit Angaben von zulässigen unteren / oberen Werten.
Es sind praktische Tests durchzuführen, in denen Effizienzgrößen für die jeweiligen Kommunikationsszenarien in Abhängigkeit der gewählten Parameter bestimmt werden, wobei neben der fehlerfreien Übertragung auch Fehler bzw. Angriffe zu beachten sind und ein Vergleich zur Übertragung ohne Netzwerkkodierung durchzuführen ist.


Erkennung von Manipulationen im PDF-Format

Präsentation der Diplomarbeit von David Müller (Institut für Systemarchitektur, Datenschutz und Datensicherheit und dence GmbH)

18.11.2014, 13:00 Uhr, INF E08

Das PDF-Format bildet den Defacto-Standard für den Austausch digitaler Dokumente. Es wurde für eine einheitliche Darstellung von Inhalten auf unterschiedlichen Plattformen optimiert. Im Gegensatz zu Microsoft Word- oder OpenOffice-Dokumenten existieren nur eingeschränkte Möglichkeiten zur Manipulationen von PDF-Dokumenten. Die große Verbreitung des PDF-Formats bei der Speicherung von wichtigen Dokumenten, wie Rechnungen oder Berichten, macht Untersuchungen zu den grundlegenden Möglichkeiten der Manipulation sowie deren Erkennung notwendig.
Ziel der Diplomarbeit ist es erste Ansätze für die Erkennung von manipulierten PDF-Dokumenten zu entwickeln und praktisch zu evaluieren. Hierfür soll zunächst mit einer Vorstellung des PDF-Formats und der wichtigsten Datenstrukturen begonnen werden. Viele Programme zur Erstellung und Bearbeitung von PDF-Dateien unterstützen lediglich einen Teil des gesamten PDF-Standards. Auch sind Unterschiede in der praktischen Umsetzung des PDF-Standards in den gespeicherten Dateien zu erwarten. Diese Unterschiede können Anhaltspunkte für die Erkennung von manipulierten PDF-Dokumenten liefern und sollen praktisch untersucht werden. Dazu sollen einerseits die prinzipiell existierenden Möglichkeiten zur Manipulation von PDF-Dokumenten erfasst und einer Testdatensatz von originalen und manipulierten PDF-Dokumenten erstellt werden. Darauf aufbauend gilt es Spuren in manipulierten PDF-Dokumenten zu identifizieren und hinsichtlich einer forensischen Nutzung zu bewerten. Eine Diskussion und Bewertung der Ergebnisse schließen die Arbeit ab.



Suche im Ankündigungsarchiv


Abonnieren Sie die Vortragsankündigungen als News Feed: RSS

Stand: 1.11.2014, 3:21 Uhr
Autor: Webmaster