SKIL 2011: Zusammenfassungen der Beiträge

Auf dieser Seite finden Sie alle Zusammenfassungen der angenommenen und überarbeiteten Beiträge zur SKIL2011. Die kompletten Beiträge sind im Tagungsband zur Konferenz veröffentlicht:

Sören Auer, Thomas Riechert, Johannes Schmidt (Hrsg.): SKIL 2011 – Studentenkonferenz Informatik Leipzig 2011,  Leipziger Beiträge zur Informatik Band XXVII, Leipziger Informatik-Verbund (LIV), 2011 – ISBN 978-3-941608-14-6

TriplePlace: A flexible triple store for Android with six indices

Verfasser: Natanael Arndt
Zusammenfassung: This paper presents the idea, design and implementation of a triple store optimized to be used on mobile devices. The triple store implements an indexing structure similar to Hexastore utilizing the Tokyo Cabinet key-value store as persistent storage system. A simple and flexible API gives developers the chance to integrate TriplePlace in their applications to easily use semantic data on Android powered mobile devices. Finally TriplePlace is compared to Androjena in terms of main memory usage, extra storage needed in the final Android Package (APK) and speed.

Entwicklung von IR-Algorithmen zur automatischen Bewertung von Krankenversicherungstarifen

Verfasser: Stefan Veit
Zusammenfassung: In dieser Abhandlung wird ein Ansatz zur automatischen Bewertung von privaten Krankenversicherungstarifen verschiedener Versicherer mit Hilfe von Information-Retrieval-Algorithmen beschrieben. Dabei werden anhand eines Beispielprotokolls in vorher festgelegten Textpassagen Aussagen über die Erbringung unterschiedlicher Versicherungsleistungen getroffen. Die Bewertungen der Tarife soll zu Vergleichszwecken in einer Maklersoftware verwendet werden. Bisher werden die dazu verwendeten Informationen manuell gewonnen, was einen hohen Zeit- und Kostenfaktor darstellt. Um die automatische Bewertung zu realisieren, kommen Techniken aus Text Mining, Information-Retrieval und Informationsextraktion zum Einsatz. Die umgesetzten Algorithmen erzielten dabei mit 80 Prozent korrekt bewerteten Tarifen ein ausreichend gutes Ergebnis.

CoVi – a JAVA application to explore Human Disease Networks

VerfasserInnen: Klaus Lyko, Victor Christen, Anastasia Chyhir
Zusammenfassung:This paper presents the Comorbidity Viewer (CoVi), a platform independent Java application used to visualize Human Disease Networks. These networks encompass correlations between human diseases. CoVi helps to explore these publicly accessible datasets using an intuitive graphical user interface. Furthermore, it is capable of clustering disease networks by using the Borderflow algorithm.

Realisierung eines RDF-Interfaces für die Neue Deutsche Biographie

Verfasser: Martin Brümmer
Zusammenfassung: Die von der Bayerischen Akademie der Wissenschaften publizierte Neue Deutsche Biographie besteht derzeit aus 24 Bänden und umfasst Biographien von über 22.000 historischen Persönlichkeiten. Für das digitale Angebot wurden 47.000 Einzeleinträge digital erfasst. Die vorliegenden XML-Dateien wurden mit Hilfe des Annotationsstandards TEI annotiert. Der Beitrag stellt die auf dieser Datenbasis aufbauende, automatische Transformation von Metadaten der biographischen Einträge in RDF-Statements vor. Ziel ist die Etablierung einer Linked-Data Schnittstelle. Die Realisierung umfasst die Definition eines minimalen OWL-Vokabulars und einen zweistufigen Transfomationsprozess mittels XSLT-Transformation und String-Parser. Aufbauend auf der Linked-Data Schnittstelle war es möglich eine technische Infrastruktur zu realisieren, welche alle RDF-Daten in einem Triple-Store akkumuliert um darauf aufbauend SPARQL-Anfragen durchführen zu können.

Methoden zur Aufwandsschätzung von Softwareprojekten und deren Zuverlässigkeit

Verfasser: Florian Pilz
Zusammenfassung: Zuverlässige Aufwandsschätzungen sind für den Erfolg von Softwareprojekten von entscheidender Bedeutung. Die Zuverlässigkeit von Schätzungen ist maßgeblich von der verwendeten Schätzmethode abhängig, weshalb ausgewählte Schätzmethoden vorgestellt werden, welche die Vielfalt der Möglichkeiten zur Aufwandsschätzung darstellen sollen. Die Zuverlässigkeit von Schätzungen ist durch die Alterung der Schätzmethoden und durch das Unwissen der zukünftigen Projektentwicklung limitiert. Um dennoch hochwertige Schätzungen zu erhalten, wird erläutert, wie periodische Schätzungen, die Kombination verschiedener Schätzmethoden sowie Erfahrungsgewinn und Anpassung die Zuverlässigkeit erhöhen können.

Volumendifferenzmessung an medizinischen Oberflächenbilddaten

Verfasser: Henry Borasch
Zusammenfassung: In diesem Artikel wird ein Verfahren vorgestellt, das Volumenmessungen und -vergleiche an medizinischen Oberflächendaten ermöglicht. Ziel ist deren Anwendung auf dreidimensionale Gesichtsscans von Patienten vor und nach operativen Eingriffen. So können die postoperativen Veränderungen im Gesicht des Patienten, wie etwa Form und Volumen des Weichgewebes, genau untersucht werden. Alternativ zu bisherigen Messverfahren in kommerziellen Bearbeitungsprogrammen wird hier auf die Softwarebibliothek Visualization Toolkit zurückgegriffen. Es werden Mechanismen präsentiert, die die Funktionen dieser Bibliothek erweitern und kombinieren, woraus schließlich das angestrebte Messverfahren hervorgeht.

rdf2wp – Publikation von Daten als RDF mittels WordPressblog

Verfasser: Johannes Frey
Zusammenfassung: Über 12 Mio. Downloads von WordPress 3.2 und über 17.000 verfügbare Plugins meldete die offizielle Webseite im November 2011. Im Durchschnitt über 500.000 neue Posts pro Tag verzeichnete die Statistik von WordPress.com. Diese Daten werden jedoch (nahezu) alle unstrukturiert publiziert. Dieses Paper zeigt, wie durch die Integration von verschiedenen Technologien des Web 3.0 wie Linked Data, RDF und SPARQL in einen WordPress Blog, die Publikation von semantischen Daten ermöglicht wird. Zum einen wird der Aufbau und die Wirkungsweise des in PHP geschrieben Plugins beschrieben. Zum anderen wird der praktische Einsatz an einem Datenkatalog und an einer sozialen Community gezeigt. Dabei wird insbesondere auf das Problem, eine möglichst benutzerfreundliche Datenrepräsentationssprache zu verwenden, eingegangen und eine eigens dafür entwickelte Syntax vorgestellt. Außerdem werden die Vorteile von strukturiertem Publizieren für den Nutzer anhand von Widgets und ähnlichem präsentiert.

Simulating the Spread of Epidemics in Real-world Trading Networks using OpenCL

Verfasser: Martin Clauß
Zusammenfassung: In this paper we investigate a solution to the problem of simulating the spread of epidemics in real-world trading networks. We developed an application that uses parallel computing devices (e.g. GPUs – Graphical Processing Units) with OpenCL (Open Computing Language). Furthermore, we use the epidemiological SIR-model to represent the nodes of the trading network. Initially, the epidemic grows locally in every node. At certain points of time a transaction happens between severals nodes to spread the epidemic spatially. Our results show that a computational speedup of at least 8 times
can be achieved using modern GPUs. Additional research is required to further accelerate the computation.

Entwicklung eines Managementsystems für bibliographische Einträge auf Basis von WordPress am Beispiel der Lutherbibliographie

Verfasser: Thomas Schöne
Zusammenfassung: Die Lutherjahrbücher sind eine jährlich erscheinende Lutherbibliographie, produziert von der 1918 gegründeten Luther-Gesellschaft. Neben den Jahrbüchern erscheint jetzt ein Online-Auftritt der Lutherbibliographie. Dieser wird mittels einer Word-Press-Installation als Content-Management-System realisiert. Die einzelnen Literaturangaben werden im BibTex-Format gespeichert und durch ein WordPress-Plugin in ein für den Bentuzer ansprechendes Format gebracht. Literaturangaben sollen von externen Mitarbeitern der Luther-Gesellschaft weltweit eingegeben und anschließend zentral durch die Luther-Gesellschaft moderiert werden.

Entwicklung eines Programms zur dynamischen Nutzung freier Ressourcen von Workstations

Verfasser: Michael Schmidt
Zusammenfassung: Das Programm sleepworker ist ein leichtgewichtiger UNIX-Daemon, welcher dynamisch UNIX-Maschinen auf Inaktivität und freie Ressourcen überwacht. Der Aufbau dieses Programms soll modularisiert werden, so dass der Anwender definieren kann, welche Indikatoren beziehungsweise Sensoren für das Aufzeigen freier Ressourcen überwacht werden sollen. Zudem kann der Anwender Kommandos definieren, welche bei Inaktivität beziehungsweise erneuter Aktivität ausgeführt werden.