Die Themen

Arbeitsgruppe Dr. Meyer

SLR-17: Tool zur Durchführung und Dokumentation strukturierter Literaturrecherchen

Betreuer: Michael Becker
Tutor: Julia Friedrich
Kurzbeschreibung: Eine der ersten Aufgaben bei der Durchführung eines wissenschaftlichen Projekts ist es, den aktuellen Stand der Literatur zu analysieren. Dazu wurden in der Vergangenheit verschiedene Vorgehen vorgestellt, an denen sich die Literaturrecherche orientieren kann (z.B. Webster & Watson: Analyzing the past to prepare for the future: Writing a literature review, 2002). Um eine Recherche nachvollziehbar und formal korrekt durchzuführen, empfiehlt es sich, auf den existierenden Vorarbeiten zu nutzen.
Ziel: Im Praktikum soll eine Software entwickelt werden, mit welcher verschiedene Vorgehensmodelle für strukturierte Literaturrecherchen abgebildet werden können. Nutzer_innen sollen eines der Vorgehen auswählen und dann entsprechend durch die Schritte der Recherche geleitet werden. Insbesondere soll der Prozess genau dokumentiert werden, so dass in allen Phasen nachvollzogen werden kann, welche Literatur inwiefern untersucht wurde. Die Software soll Nutzer_innen weiterhin dabei unterstützen, Konzepte aus der Literatur zu extrahieren und (je nach gewünschtem Recherchetyp) zu strukturieren.

Arbeitsgruppe Dr. Martin

PWS-17: Plattform zur Wohnungssuche mit optimaler Lage

Betreuer: Daniel Gerber
Tutor: Fabian Niehoff
Kurzbeschreibung: Der Umzug innerhalb großer Ballungsräume bringt viele Entscheidungen mit sich. Durch die Wahl einer Wohnung wird maßgeblich entschieden, wie sich der Alltag in Zukunft gestalteten wird. So kann beispielsweise eine Wohnung nah am Arbeitsplatz zu einem kurzen, angenehmen Arbeitsweg führen, aber den Weg zu Freunden oder zur Lieblingsbar drastisch verlängern.
Ziel: Im Praktikum soll eine Web-Applikation entwickelt werden, die mit Hilfe von Erreichbarkeitsanalyseservices (
https://www.route360.net/) die optimale Wohnung hinsichtlich einer bestimmten Menge an geografischen Referenzpunkten und der Reisezeit ermittelt. Dabei sollen die Wohnungen von Immobilienscout 24 (oder ähnliche) als Datengrundlage verwendet werden und eine Angular 2 / Node JS / Type Script- Applikation entwickelt werden.

APRT-17: Automatisierte Präsentationserzeugung anhand von Themengebieten

Betreuer: Kurt Junghanns
Tutor: Johannes Römer
Kurzbeschreibung: Die Unversität Leipzig ist in einem EU Projekt involviert, in dem eine Software entwickelt wird, die einen zentralen Umschlagplatz für Präsentationen bietet. Diese Software ist vergleichbar zu Wikipedia bzgl. dem Sammeln von Wissen und Github bzgl. Open-Source Softwareprojekten. Um die Plattform mit gehaltvollen Präsentationen anzureichern und eine Datengrundlage für Latenz-, Durchsatz- und Verlässlichkeitstest zu erhalten, ist eine große Masse an strukturierten Präsentation nötig.
Ziel: Im Rahmen diese Projektes soll eine Software erstellt werden, die zu einem Themengebiet (bspw. Städte, Künstler, Pflanzenarten) Informationen aus dem Internet bezieht und daraus Präsentationen generiert. So könnte bereits aus dem Wikipedia Artikel zu Leipzig eine Menge an Informationen abgeleitet werden. Diese strukturierten Informationen, wie die historische Entwicklung (incl. Bildern), berühmte Persönlichkeiten und Zahlen / Fakten zur Stadt, sollen anschließend in einem für das Projekt sinvollen Datenform in Präsentationen überführt werden.

GBAW-17: Gamificated Bot bzgl. Allgemeinwissen

Betreuer: Roy Meissner
Tutor: Johannes Römer
Kurzbeschreibung: Die Unversität Leipzig ist in einem EU Projekt involviert, in dem eine Software entwickelt wird, die einen zentralen Umschlagplatz für Präsentationen bietet. Diese Software ist vergleichbar zu Wikipedia bzgl. dem Sammeln von Wissen und Github bzgl. Open-Source Softwareprojekten. Um das Arbeiten mit der Plattform etwas zu erleichtern und spaßiger zu gestalten, sollen Elemente von Gamification eingebaut werden.
Ziel: Im Rahmen diese Projektes soll eine Software geschaffen werden, die Nutzer alle X Minuten unterbricht (Prinzip vglb. Pomodoro) und diesem Fragen bzgl. Allgemeinwissen stellt. Dabei kann jeder Nutzer für richtige Antworten Punkte sammeln und sich mit anderen Nutzern vergleichen, gleichzeitig aber auch sein/ihr Allgemeinwissen aufbessern. Die Software soll dabei für Fragen und Antworten das Internet nutzen und einen genügend großen Umfang an Themen abdecken, damit das Frage-Antwort spiel nicht langweilig wird. Zunächst soll die Software generisch auf verschiedenen Plattformen / Webseiten verwendbar sein.

Arbeitsgruppe Dr. Hellmann

DBP-17: Provenance Tracking von Fakten in DBpedia

Betreuer: Johannes Frey
Tutor: Marvin Hofer
Kurzbeschreibung: DBpedia nimmt in der Linked Open Data Cloud eine zentrale Rolle ein für die Vernetzung von Informationen über Entitäten (z. B. Personen, Organisationen, Orte…) unseres Alltags. Die in den Wikipedia Artikeln enthaltenen semistrukturierten Daten werden u.a. auf Basis der populären Infoboxen automatisch als RDF extrahiert und in DBpedia für komplexe Anfragen zugänglich gemacht. Ein Aspekt um von Big Data zu Smart Data zu gelangen ist die Aktualität, Herkunft und Vertrauenswürdigkeit von jeder Informationseinheit zu bestimmen, um so bei der Weiterverarbeitung der Daten Aussagen über deren Qualität treffen zu können.
Ziel: Es soll ein leichtgewichtiges, paralleles Tool entwickelt werden, welches die aktuellen Fakten aus DBpedia über eine Entität (z.B. dass eine Person im Vorstand einer Firma ist) auf Basis der Versionshistorie (komplette Revisionen inkl. Metadaten) von Wikipedia zurückverfolgt und somit ermittelt wann und von wem ein Fakt in Wikipedia eingetragen worden ist. Je Nach Gruppenstärke können optional außerdem Informationen über die Vertrauenswürdigkeit der Fakten berechnet werden, indem bspw. ermittelt wird, wie oft diese gesichtet worden sind oder wie dynamisch sich diese in der Vergangenheit verändert haben.

ASO-17: Erstellung eines RDF Datensets für linguistische Termini

Betreuer: Bettina Klimek
Tutor: Robert Schädlich
Kurzbeschreibung: Zur Verfügung steht eine relationale Datenbank linguistischer Termini, Konzepte und bibliographischer Angaben, die über ein navigierbares Web-Frontend als Online-Nachschlagewerk für menschliche Nutzer zugänglich gemacht ist. Auf Grund fehlender dereferenzierbarer Links der Einträge, sind die Informationen für die Nutzer jedoch nicht wiederverwenbar bzw. nicht zitierbar. Des Weiteren ist jegliche maschinelle Wiederverwendung und interoperable Nutzung der Daten derzeit unmöglich, obwohl ein großes Interesse in der Linguistic Linked Open Data (LLOD) Community darin besteht, bereits existierende Datensets mit den Informationen aus dieser Datenbank semantisch zu verknüpfen.
Ziel:
Um dies zu erreichen soll die Datenbank in ein RDF Datenset umgewandelt und in der LLOD Cloud bereit gestellt werden. Da die Datenbank stetig erweitert wird, ist außerdem eine automatische Generierung einer neuen Version des RDF Datensets in regelmäßigen Zeitabständen nötig. Des Weiteren sollte das RDF Datenset ebenfalls durch ein Web-Frontend navigierbar sein, welches jedoch die Dereferenzierbarkeit einzelner Dateneinträge berücksichtigt.

Arbeitsgruppe Dr. Kühne

MOKL-17: Entwicklung einer mobilen App zur Anzeige von Kennzahlen in der Logistik

Betreuer: Dr. Heiko Kern, Fred Stefan
Tutor: Franz Teichmann
Kurzbeschreibung: In Logistik-Prozessen fallen täglich riesige Mengen an Daten an. Um in der Vielzahl der zur Verfügung stehenden Informationen nicht den Überblick zu verlieren, müssen verschiedene Akteure zur richtigen Zeit mit den für sie relevanten Informationen versorget werden. Durch eine adäquate Informationsversorgung können Logistik-Prozesse besser überwacht und aufeinander abgestimmt werden. Darüber hinaus können eventuell auftretende Störfälle bereits im Vorfeld oder bei Eintreten deeskaliert werden.
Ziel: Im Praktikum soll eine Softwarelösung entwickelt werden, welche erfolgskritische Prozessdaten bzw. Kennzahlen in Echtzeit aus einem Logistik-System abfragt, an eine mobile Anwendung überträgt und visuell ansprechend darstellt. Die Teilnehmer lernen im Rahmen des Praktikums anhand einer konkreten praxisrelevanten Themenstellung die Entwicklung einer komplexen Anwendung. Schwerpunkte liegen dabei auf den Punkten: Datenintegration (SQL), Technologien zur Regelauswertung (bspw. Drools), Client-Server Technologien (Tomcat, REST) sowie der Verwendung eines Frameworks zur Entwicklung mobiler Anwendungen (Ionic).

Alles weitere würden wir dann bei der ersten Veranstaltung in Form einer kurzen Vortrages präsentieren.

Arbeitsgruppe SCADS

ENA-17: Big Data & KINECT – Eingangsassistent 0.1

Betreuer: Dr. Eric Peukert
Tutor: Matthias Kricke
Kurzbeschreibung: Im Big Data Kompetenzzentrum an der Universität Leipzig (ScaDS (Dresden/Leipzig)) werden aktuelle Big Data Technologien zur Sammlung, Speicherung und Analyse von sehr heterogenen und großen Datenmengen evaluiert. Insbesondere Video- und Bewegungssensordaten von Personen sind in vielen Bereichen von sehr großem Wert. Zur Evaluation zum Kennenlernen vorhandener Technologien im Umgang mit solchen Daten soll im Praktikum ein einfacher Big Data Eingangsassistent entwickelt werden, der kommuniziert, Daten sammelt und auf Handlungen und Gesten von Personen reagieren kann. Dazu wollen wir mittels KINECT Daten sammeln und in einem verteilten Key-Value Store (Apache Accumulo) zeitbezogen speichern und analysieren.
Ziel: Im SWT-Praktikum soll durch Studenten ein einfacher Eingangsassistent entwickelt werden. Dieser besteht aus
(1) einem Client zur Kommunikation auf Basis einer Text-2-Speech Engine,
(2) einem web-basierten Datenverwaltungs-, Speicherwerkzeug auf Basis von Apache Accumulo sowie
(3) einer Softwarekomponente zur Anbindung einer KINECT zur Aufnahme von Nutzerverhalten und Gesten.
Als Programmiersprache sollte Java + HTML5 verwendet werden. Innerhalb eines agilen Softwareentwicklungsprozesses (SCRUM) arbeiten die Studenten kooperativ, teilen sich Aufgaben auf und entwickeln gemeinsam einen funktionalen Prototypen.