SKILL 2014: Angenommene Beiträge

Daniel Steiman (Hamburg). Context-Awareness in Multiagentensimulationen auf Basis von Complex Event Processing

Kontextbewusste Systeme bieten die Möglichkeit, dass Anwendungen ihr Verhalten ohne die aktive Einflussnahme von Anwendern selbstständig an vorherrschende Situationen anpassen. Dazu erfassen sie Kontextdaten, die verarbeitet und zur Steuerung der Anwendung verwendet werden. Aus diesem Grund wurden bereits Toolkits, Frameworks und Ansätze entwickelt, die eine einfache Entwicklung von kontextbewussten Anwendungen ermöglichen sollen. Die bisher auf dem Gebiet der Context-Awareness vorgestellten Arbeiten weisen jedoch Nachteile auf, die einen Einsatz in bestimmten Anwendungsbereichen stark einschränken oder sogar völlig ausschließen. Dazu zählen vor allem Anwendungsbereiche, die den Anspruch haben riesige Mengen von Ereignissen und damit riesige Volumen an Kontextdaten in Echtzeit verarbeiten zu können. Dieses Paper zeigt die Nachteile bestehender Ansätze auf und befasst sich mit der Entwicklung eines Konzepts, mit dem ein breites Spektrum von Anwendungen möglichst einfach kontextbewusst gemacht werden kann. Um die Einsatzfähigkeit und die Performance des entwickelten Konzepts zu untersuchen, wird es in einem prototypischen Fallbeispiel einer Multiagentensimulation verwendet.

Juliane Bredack (Potsdam). Automatische Extraktion von Fachterminologie aus kunsthistorischen Volltexten

Mit Hilfe eines algorithmisch arbeitenden Verfahrens können fachterminologische Mehrwortgruppen aus elektronisch vorliegenden Texten identifiziert und extrahiert werden. Inhaltlicher Schwerpunkt stellt die Einbindung von Funktionswörtern des deutschen Sprachgebrauchs in den Extraktionsalgorithmus dar. Als Datengrundlage dieser Arbeit dienten kunsthistorische Lexikonartikel des Reallexikons zur Deutschen Kunstgeschichte. Das automatische Indexierungssystem Lingo wurde in dieser Studie genutzt. Anhand selbst gebildeter Kriterien wurden die extrahierten Mehrwortgruppen qualitativ analysiert. Es konnte festgestellt werden, dass die Verwendung von Funktionswörtern fachterminologische Mehrwortgruppen erzeugt, die als potentielle Indexterme weitere Verwendung im Information Retrieval finden können.

Ionut-Gabriel Farcas (München). Comparison of Numerical Methods in Uncertainty Quantification

This paper presents and compares the results obtained using several methods for Stochastic Computations, used in Uncertainty Quantification. We practically present the methods using a simple ODE model. The focus is on non-intrusive sampling methods, namely the Monte Carlo method, along with methods based on generalized polynomial chaos(gPC) methodology. Moreover, we asses the quality of the obtained results by comparing them with the analytical solution of the system.

Steffen Hirschmann (Stuttgart). GPU-Based Regression Analysis on Adaptive Sparse Grids

Prediction and forecasting has become very important in modern society. Regression analysis enables to predict easily based on given data. This paper focuses on regression analysis on spatially adaptive sparse grids using the existing toolbox Sparse Grid ++ (SG++). The core workload of the regression analysis will be implemented on graphics cards using NVIDIA’s Compute Unified Device Architecture (CUDA). Therefore, we give guidance how to get high performance when dealing with this particular problem using CUDA enabled graphics cards. We also focus on problems where the datasets are larger than the available device memory. Finally, we present test results for real-world and artificial datasets.

Johannes Obermaier, Tobias Laas and Markus Roner (München). Timing Attack on a Dynamic S-Box Implementation in the Modified AES InvSubBytes Operation

This paper demonstrates a novel timing attack on a software implementation of the AES decryption algorithm. The implementation was optimized to reduce its code and memory footprint by utilizing an inverse S-box operation which directly calculates the substitution values instead of fetching them from a pre-computed look-up table. This code-size optimized implementation was created as part of a laboratory for which a smart-card emulator was designed and physically tested. Later on, we noticed that the implementation shows a data-dependent execution time for which we developed a novel timing attack. It is based on a timing-model which was derived from an analysis of the implementation. The feasibility of the approach was first proved by a simulation. The subsequent application of the attack on the smart-card emulator in a real setup was successful. This paper describes the analysis done to conduct the attack and emphasizes the dangers of incautiously implemented cryptographic algorithms.

Anna-Luisa Schwartz (Bonn). Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances

Finite Element Simulation of crash tests in the car industry generates huge amounts of high-dimensional numerical data. Methods from Machine Learning, especially from Dimensionality Reduction, can assist in analysing and evaluating this data efficiently. Here we present a method that performs a two step dimensionality reduction in a novel manner: First the simulation data is represented as (normalised) histograms, then embedded into a low dimensional space using histogram distances and the nonlinear method of Spectral Embedding/Diffusion Maps, thus enabling a much easier data analysis. In particular, this method solves the problem of comparing simulation data with small changes in the Finite Element grids due to variations of geometry or unequally fine grid structures.

Helena Glatzel (Darmstadt). Schema-Management ohne Schema? – Schema-Verwaltung in NoSQL-Datenbanksystemen

In der Anwendungsentwicklung finden sich mittlerweile immer kürzere Release-Zyklen, auf die auch im Bereich der Datenbanken reagiert werden muss. Gerade im Umfeld der Webanwendungen erfreuen sich daher NoSQL-Datenbank-systeme zunehmender Beliebtheit. Durch deren Schema-Flexibilität kann effizient auf die schnellen Änderungen von Anwendung und Datenschema eingegangen werden. Üblicherweise ist es in NoSQL-Systemen nicht erforderlich im Voraus ein Schema zu definieren. Dieses ergibt sich implizit durch die Struktur der Daten und muss nicht gesondert definiert und verwaltet werden. Dadurch sind jederzeit flexibel Änderungen am Schema möglich. Allerdings bedeutet dies auch, dass die Verwaltung des Schemas zum Großteil in der Verantwortung der Anwendung liegt. Um die Komplexität der Anwendungsentwicklung zu begrenzen, ist ein gewisses Maß an Unterstützung durch das eingesetzte Datenbanksystem wünschenswert. Dieses Paper gibt daher zunächst einen Überblick über die momentane Unterstützung des Schema-Managements durch die gängigsten NoSQL-Datenbanken und vielversprechendsten, aktuellen Entwicklungen. Im Anschluss werden die gewonnenen Erkenntnisse genutzt, um eine systemunabhängige Schema-Management-Komponente zu entwerfen, die sämtliche Aufgaben des Schema-Managements erfüllt.

Christoph Winter (Regensburg). Entwicklung algorithmischer Skelette für CUDA am Beispiel von Affintiy Propagation

In diesem Artikel wird anhand des Clusteralgorithmus Affinity Propagation (AP) eine Bibliothek bestehend aus algorithmischen Skeletten vorgestellt, mit deren Hilfe Berechnungen auf die GPU verlagert werden können. Nach einer kurzen Beschreibung von AP wird eingehend auf die Implementierung der Bibliothek und deren Skelette eingegangen: Sowohl die abstrakten Bausteine, als auch die konkrete Umsetzung und Verwendung für AP werden dargestellt. Durch das hohe Abstraktionsniveau der Bibliothek und durch Nutzung etablierter CUDA/C++ Konzepte wie Iteratoren und Funktionsobjekte entsteht eine Sammlung nützlicher Funktionen, die einerseits als Ergänzung zu bestehenden Bibliotheken, andererseits als Basis für weitere Entwicklungen dient. Die Wiederverwendbarkeit, Wartbarkeit und Übersichtlichkeit der Anwendungen werden durch deren Verwendung gesteigert. Eine kurze Analyse über das Laufzeitverhalten im Vergleich zu anderen Funktionssammlungen zeigt, dass die entwickelten Funktionen teilweise besser oder ähnlich gut skalieren. Es stellt sich heraus, dass unter Nutzung der Skelette im Vergleich zu einer sequenziellen Version AP um Faktor 40 – 50 beschleunigt werden kann.

Friedrich Pawelka, Thomas Wollmann, Jakob Stöber and Tommy Lam (Heilbronn). Erfolgreiches Lernen durch gamifiziertes E-Learning

E-Learning ist schon länger als Lernmethode bei Faktenwissen etabliert. Der Erfolg hängt jedoch von der Wiederholung und der Motivation des Nutzers ab. Gamifiziertes E-Learning hat den Anspruch genau diese Lücke zwischen Motivation und E-Learning zu schließen und die Lernleistung in Bezug auf Geschwindigkeit und Dauerhaftigkeit des Wissens zu erhöhen. Dazu wird ein Konzept entworfen, welches die Vorteile einer bereits weit verbreiteten Quiz-App für Smartphones nutzt und um Aspekte zum gezielten Lernen von Faktenwissen erweitert. Dieses Konzept wird anschließend in einem Prototyp umgesetzt und getestet. Der Test zeigt erste Tendenzen, dass Motivation und Lernerfolg durch das Konzept verbessert werden. Es werden außerdem weiterführende Ansätze zur Erweiterung des Konzeptes diskutiert.

Markus Paatsch (Karlsruhe). Konzeption und Entwicklung eines Informationssystems zur Unterstützung der Vertriebsplanung im Lösungsbetrieb

Dieser Artikel beschäftigt sich mit der Konzeption, Entwicklung und Evaluation einer softwaretechnischen Lösung zur Vertriebsplanungsoptimierung in lösungsorientierten B2B-Unternehmen. Die Grundlage für Optimierungen bilden hierbei historische Vertriebsdaten, wie z.B. frühere Kundenbeziehungen. Es wird untersucht, wie sich eine derartige Anwendung unter Zuhilfenahme eines bestehenden Business-Intelligence-Umfeld integrieren lässt. Die konzipierte Webapplikation wird als JSF-Anwendung umgesetzt. Die Implementierung arbeitet beispielhaft mit dem Data-Mining-Verfahren der logistischen Regression, welche durch die Bibliothek weka integriert wird. Weiterhin werden zur Optimierung Funktionen der Bibliothek ilog cplex benutzt. Hauptaufgabe der Anwendung ist die Maximierung des Umsatzes durch Optimierung der Zuweisungen von Verkäufern zu Kunden. Alle optimierten Ergebnisse werden in übersichtlicher und anschaulicher Art visualisiert.

Fritjof Bornebusch, Glaucia Cancino, Alvine Fanseu, Maryam Jalali, Jamal Mohsen, Max Nitze, Christina Plump, Ronald Smith Djomkam Yotedje, Hubert Fred Tchambo, Toni and Henning Ziegler (Bremen). Aspekt-basierte Sentiment Analysis

Sentiment Analysis (engl. für Stimmungsanalyse) wird verwendet, um Meinungen, Gefühle und Emotionen aus Texten zu extrahieren. In diesem Artikel beschreiben wir einen Ansatz zur Sentiment Analysis auf Basis von Aspekten. Dieser Ansatz kann u.a. für die automatisierte Klassifizierung und Einordnung von Produktkommentaren, wie sie beispielsweise auf Bewertungsplattformen vorkommen, verwendet werden. Unser Ansatz gliedert sich in vier wesentliche Teilaufgaben: (i) Extraktion der Aspekte, (ii) Bewertung der Polarität der Aspekte, (iii) Klassifizierung der Aspekte in vorgegebene Kategorien und (iv) Bewertung der Polarität der Kategorie. Zur Umsetzung des Ansatzes werden Methoden der maschinellen Sprachverarbeitung eingesetzt.

Robert Fruth, Henry Moews, David Silva Ribeaux, Tom Tschernack, Norbert Wall and Patrick Wolfien (Potsdam). Campus-Navigations-Applikation für Studierende mit Beeinträchtigungen

Die Bewältigung des Studiums ist für Studierende mit Beeinträchtigungen noch immer mit z.T. großen Hürden verbunden. Ein wesentlicher Faktor dabei ist die Mobilität auf dem Campus. Daher wurde in einem studentischen Projekt an der Universität Potsdam eine Applikation entwickelt, um die Orientierung auf dem Gelände der Hochschule zu erleichtern. Der vorliegende Beitrag dokumentiert die Hintergründe, das Konzept und die Umsetzung dieser Applikation.