SKIL 2012: Zusammenfassungen der Beiträge

Auf dieser Seite finden Sie alle Zusammenfassungen der angenommenen und überarbeiteten Beiträge zur SKIL2012. Die kompletten Beiträge sind im Tagungsband zur Konferenz veröffentlicht:

Johannes Schmidt , Thomas Riechert, Sören Auer (Hrsg.): SKIL 2012 – Dritte Studentenkonferenz Informatik Leipzig 2012, Leipziger Beiträge zur Informatik Band XXXIV, Leipziger Informatik-Verbund (LIV), 2012 – ISBN 978-3-941608-21-4

Integration von Geodaten in ein Planungssystem

Verfasser: Björn Buchwald

Zusammenfassung: Dieses Paper beschreibt die Konzeption einer prototypischen Softwarelösung für das „Dinner Hopping“. Dabei sind Teams gegeben, die an bestimmten Orten beheimatet sind. Jedes Team richtet entweder eine Vor-, Haupt- oder Nachspeise an. Ziel ist es, jedem Team eine Route, bestehend aus drei Orten zuzuteilen, sodass jedes Team ein komplettes 3-Gänge-Menü einnimmt. Dabei müssen bestimmte Nebenbedingungen eingehalten werden. Es wird auf den Zusammenhang mit dem Travelling Salesman Problem eingegangen. Daraufhin folgt eine Lösungsskizze, welche auf Geokodierung, Routenberechnung, Möglichkeiten der Visualisierung von geografischen Daten in einer Java-Applikation und verwendete Services eingeht. Schließlich findet eine Beschreibung des Routenplanungsalgorithmus statt.

Vortragsfolien

Visualisierung einer Taxonomie als Treemap und Optimierung der Generierung in einer Web-Applikation

Verfasser: Max Kießling

Zusammenfassung: Unternehmen sollen anhand ihrer Dienstleistungen mithilfe einer Treemap ansprechend visualisiert und so untereinander vergleichbar gemacht werden. Die Visualisierung soll innerhalb einer Web-Applikation genutzt werden und auf Grundlage der dazugehörigen Datenbank dynamisch erstellt werden. Dabei zeigt sich, dass die naive Implementierung sehr lange zur Berechnung benötigt, wodurch eine Optimierung unumgänglich wird. Die Optimierung in 3 Schritten ergab eine Verbesserung um etwa den Faktor 80, wobei auch die Codequalität deutlich verbessert wurde.

Vortragsfolien

Systematic review about the academic impact of DBpedia

Verfasser: Marcus Nitzschke

Zusammenfassung: There is an extensive collection of academic papers and presentations for the Wikipedia project available. This enables one to analyze the evolution of such projects over the years from the beginning. The goal of this paper is to create a similar collection for the DBpedia project. With this base there will be introduced several analyses and a comparison to the Wikipedia project.

Vortragsfolien

Untersuchung von Beschleunigungsverfahren für den Dijkstra-Algorithmus im Zusammenhang mit multimodalem Routing

Verfasser: David Georg Reichelt

Zusammenfassung: Vor dem Hintergrund neu aufkommender Verkehrsmittel wie dem Bike- und dem Carsharing stellt sich die Frage der Wegsuche in multimodalen Netzen neu, da herkömmliche Verkehrsmittel wie bspw. der ÖPNV mit neuen Verkehrsmitteln kombiniert werden. Die vorliegende Arbeit untersucht zwei Beschleunigungsverfahren für den Dijkstra-Algorithmus, das ALT-Verfahren und das reichweitenbasierte Pruning. Es werden die Ergebnisse der Untersuchung der Algorithmen anhand eines prototypischen Werkzeugs dargestellt.

Vortragsfolien

Ein Algorithmus für die Erzeugung Facebook-ähnlicher Netzwerkstrukturen basierend auf dem Barabasi-Albert Modell

Verfasser: Nick Robert Kempka und Annett Schumann

Zusammenfassung: Soziale Netzwerke gewinnen in unserer heutigen Gesellschaft zunehmend auch für wirtschaftliche Zwecke an Bedeutung. Insbesondere Facebook, als weltweit größtes soziales Netzwerk, ist dabei für Unternehmen als Werbeplattform interessant. Unternehmen können den Erfolg derartiger Werbekampagnen nur unzulänglich beurteilen und beispielsweise die Anzahl der dadurch gewonnenen Neukunden kaum abschätzen. Als Entscheidungsunterstützung dienen unter anderem Simulationen, welche in der Lage sind, die Facebook-Kommunikation und -Interaktion nachzuvollziehen. Um eine solche simulative Prognose erstellen zu können, ist es notwendig, die Struktur des Facebook-Netzes zu kennen. In dem folgenden Paper wird ein Algorithmus beschrieben, welcher Facebook-ähnliche Graphstrukturen erzeugt. Als Grundlage für den Algorithmus dient das Barabasi-Albert-Modell. Die erzeugten Graphen werden mit echten Facebook-Netzen verglichen und die Ergebnisse diskutiert.

Vortragsfolien

Metriken und optimale Einsatzszenarien für Garbage Collectoren der Java HotSpot Virtual Machine

Verfasser: Michael Schmeißer

Zusammenfassung: Diese Arbeit liefert ein Entscheidungsverfahren zur Auswahl eines Garbage Collectors der Java HotSpot Virtual Machine für ein beliebiges Programm, basierend auf einfach zu ermittelnden Entscheidungsgrundlagen. Dafür werden Metriken für Garbage Collectoren vorgestellt und deren Gewinnung mithilfe einer eigens entwickelten Messplattform beschrieben. Mithilfe dieser Messplattform werden für ausgewählte Beispiele Metriken ermittelt und interpretiert. Schließlich werden die anhand der Experimente gewonnenen Erkenntnisse verallgemeinert, wodurch sich Best Practices für die Auswahl eines Garbage Collectors ergeben.

Vortragsfolien

REx – eine Webapplikation zur Visualisierung der Evolution von Ontologien in den Lebenswissenschaften

Verfasser: Victor Christen

Zusammenfassung: Ontologien sind im Bereich der Lebenswissenschaften für die maschinelle Analyse und Auswertung von Daten unerlässlich. Mithilfe von Ontologien lassen sich molekular-biologische Objekte wie Proteine oder Gene konsistent und einheitlich beschreiben (annotieren), so dass ein maschineninterpretierbarer und semantischer Rahmen für ein Themengebiet spezifiziert werden kann. Durch neue Anforderungen sowie geändertes Domänenwissen unterliegen sie einem ständigen Veränderungsprozess (Evolution). Die Webanwendung REx (Region Evolution Explorer) ermöglicht die Visualisierung von Veränderungen innerhalb einer Ontologie. Dabei werden für veröffentlichte Versionen innerhalb eines Zeitraums Regionen mit hoher (geringer) Änderungsintensität ermittelt. Nutzer können sich diese Regionen über verschiedene Workflows visualisieren lassen, um somit die Evolution insbesondere von großen Ontologien kompakter und besser zu verstehen. REx wurde anhand zahlreicher, großer Ontologien in den Lebenswissenschaften evaluiert und ist unter http://dbs.uni-leipzig.de/rex verfügbar.

Vortragsfolien

Generierung von Serviceverträgen auf Basis objektorientierter ereignisgesteuerter Prozessketten

Verfasser: Jörg Hartmann

Zusammenfassung: Eine serviceorientierte Architektur (SOA) ist eine unternehmensweite ITArchitektur, bei der Anwendungen durch Komposition loser gekoppelter Services entstehen. Die Identifikation geeigneter Services steht am Beginn des Servicelebenszyklus. Sie stellt die Grundlage für eine fachliche Spezifikation der Services und bedingt damit den Erfolg einer SOA. Nach Vergleichen publizierter Serviceidentifikationsmethoden ist die Frage nach einer standardisierten Vorgehensweise unzureichend beantwortet. Diese Arbeit stellt eine modellbasierte Methode zur Serviceidentifikation vor. Auf Basis einer Anforderungsspezifikation wird das Servicedesign in einem Meet-In-The-Middle-Ansatz mit Hilfe objektorientierter ereignisgesteuerter Prozessketten und deren Verfeinerungen modelliert. Ein abschließender Schritt sieht die Generierung von Standards aus dem Servicedesign vor. Gekennzeichnet ist die Methode durch automatisierte Reflektion der Änderungsevolution zur Modellierungszeit.

Vortragsfolien

A Lexeme-Clustering Algorithm for Unsupervised Learning of Morphology

Verfasser: Maciej Janick

Zusammenfassung: This paper presents an algorithm for grouping morphologically related words, i.e. different inflected forms of the same base word, for the purpose of unsupervised learning of a natural language morphology. Initially, a trie of words is built and each node in the trie is considered a candidate for stem. The suffixes, with which it occurs, are clustered according to mutual information in order to identify inflectional paradigms. The algorithm has been implemented and evaluated for Polish, German, Finnish and Latin testing sets. Applications and topics for further research have been pointed out.

Vortragsfolien

Relevanzbasiertes Preprocessing für automatische Theorembeweiser

Verfasser: Mario Frank

Zusammenfassung: Automatisches Theorembeweisen ist ein komplexes Forschungsgebiet mit vielen Anwendungsmöglichkeiten in der Praxis. Der Beweis eines Satzes (Problem oder auch Conjecture genannt) beinhaltet im Allgemeinen die Verwendung von Axiomen oder Axiom-artigen Formeln, die im Folgenden als Axiome bezeichnet werden. Gibt es große Mengen von Axiomen, dann kann die Zeitkomplexität für den Beweis enorm ansteigen. Hier wird ein relevanzbasierter Mechanismus vorgestellt, der zum Ziel hat, die für den Beweis potentiell notwendigen Axiome auszuwählen und dadurch die Axiom-Menge zu verringern ohne auf statistische Verfahren zurückzugreifen.

Vortragsfolien

Künstliche Intelligenz auf Basis von “Baby Machines”: Geschichte und Architektur BMA1

Verfasser: Florian Golemo

Zusammenfassung: Das Wissenschaftsgebiet Künstliche Intelligenz (KI) hatte einst das Ziel, menschenähnliche Intelligenz zu kreieren.1 Bereits Alan Turing hat vorhergesagt, dass dies durch Analyse der kognitiven Funktionen2 von Kindern möglich sein wird. Diesen Ansatz nennt man “Baby Machines” und seine Vergangenheit und mögliche Zukunft soll in diesem Artikel beleuchtet werden.

Vortragsfolien