Main content
Top content
Oberseminar Informatik
Das Oberseminar Informatik (mittwochs, 08:30 Uhr, 32/109) ist ein Forum zum wissenschaftlichen Austausch von Dozenten, Doktoranden und Studierenden. Vorgetragen werden Konzepte bzw. Ergebnisse von Bachelor- und Masterarbeiten aus den Arbeitsgruppen der Informatik (DI=Didaktik der Informatik, KO=Kombinatorische Optimierung, MI=Medieninformatik, SE=Software Engineering, TH=Theoretische Informatik, TI=Technische Informatik, VS=Verteilte Systeme, WB=Wissensbasierte Systeme)
Information für Studierende: Die Veranstaltung wird als Seminar klassifiziert. Ein Scheinerwerb ist nicht möglich. Für Bachelor- und Masterabsolventen sind Vorträge im OSI als Teil der Abschlussarbeit verpflichtend. Hinweise zur Vortragsgestaltung gibt der Betreuer. Pro Termin werden 3 Themen behandelt. Üblich sind ca. 20 Minuten Vortrag und 10 Minuten Diskussion.
Termin | Vortragende(r) | AG | Typ | Thema und Abstract |
23.11.2016 | Nils Niemann | WB | MSC | Regelbasierte Instanziierung geometrischer Konzepte zur planbasierten Robotersteuerung Um einen Roboter mit der Fähigkeit auszustatten, Aufgaben zu planen und erstellte Pläne auszuführen, wird unter anderem eine Repräsentation seiner Umgebung benötigt. Für eine möglichst adaptive Modellierung wird in dieser Arbeit ein System entwickelt, welches geometrische Methoden in eine Wissensbasis einbindet. Dadurch können räumliche Gegebenheiten (z.B.: Ein Stuhl steht am Tisch) auf einer abstrakteren Ebene beschrieben und genutzt werden, um neues Wissen zu erzeugen (etwa Bereiche, von denen ein Roboter den Gast auf dem Stuhl bedienen kann). Dieses hergeleitete Wissen kann ebenfalls mit Geometriedaten verknüpft sein, wodurch ein Roboter für seine Planausführung neben symbolischen Instanzen auch konkrete Ziele erhält. |
23.11.2016 | Lars Huning | VS | BSC | Design and Implementation of a Crowd Sensing Architecture for a Smart Farming App Modern distributed sensor technology allows for sensing a wide variety of different phenomena. The data acquired by using this sensor technology can be analyzed and the results of this analysis can be used to create models of a variety of processes. Smart Farming refers to the act of utilizing modern information technology in a farming context. One example of an important plant parameter that can be estimated by sensor technology is the Leaf Area Index (LAI ). The LAI is defined as the one sided leaf area per unit horizontal ground surface area. It is a main variable many in models used to describe plant processes such as photosynthesis and evapotranspiration. The already existing smartphone app SmartfLAIr presents a fast an econmical approach to estimate the LAI compared to traditional methods. In order to estimate the LAI with high spatio-temporal resolution, this thesis extends SmartfLAIr with features of Mobile Crowd Sensing (MCS). MCS describes a paradigm in which smartphone owners help to collect sensor data with their smartphones in exchange for some kind of incentive. As users' spatio-temporal information is collected while estimating the LAI, privacy concerned smartphone owners may be unwilling to participate in MCS. As the success of a mobile crowd sensing application largely depends on its amount of users, user privacy will be a focus in this thesis. |
23.11.2016 | Stefanie Thieme | VS | MSC | SCTP-basierte Datenratenabschätzung und elastische Stream Adaptation für Cloud Robotics Autonome Roboter nehmen bei der Exploration ihrer Umgebung Laserscans auf, welche für verschiedene Zwecke, wie beispielsweise deren Koordination, an eine zentrale Stelle gesendet werden müssen. Dabei weisen die Kommunikationsbedingungen häufig nur eine geringe Qualität auf. Bisher wird zur Datenübertragung primär TCP verwendet. In dieser Masterarbeit wird eine Anwendung konzipiert und evaluiert, welche aufbauend auf dem Stream Control Transmission Protocol (SCTP) neben der Elastizität von Laserscandaten auch die Möglichkeit eines Wechsels des drahtlosen Interfaces ausnutzt. Aufbauend auf einer Datenratenschätzung wird das geeignetste Interface zur Datenübertragung ausgewählt, woraufhin die zu sendenden Daten an diese Rate angepasst werden. Dadurch wird selbst in Szenarien mit stark schwankenden Verbindungsqualitäten ein höherer Durchsatz auf Anwendungsebene als mit TCP erzielt. Zusätzlich kann die Übertragungsdauer annähernd konstant gehalten werden, sodass Ressourcen wie die Energie des Roboters eingespart werden. |
30.11.2016 | Johan von Behren | MI | BSC | Entwurf und Implementation einer iOS-App für das re.photos-Portal Unter Refotografie versteht man das wiederholte Aufnehmen des gleichen Motivs. Um solche Refotografien im direkten Vergleich zu betrachten und zu sammeln, gibt es seit dem Jahr 2016 das Portal re.photos (https://www.re.photos/). In dieser Bachelorarbeit soll eine iOS-App für das Portal entwickelt werden, mit deren Hilfe es auf iOS-Geräten einfacher zugänglich gemacht wird. Neben der Anbindung an das Portal soll die App dem Nutzer eine möglichst kurze Rundtour zwischen vorher ausgewählten Bildern berechnen, die er refotografieren möchte. Zusätzlich soll die App den Benutzer bei der Aufnahme einer solchen Refotografie unterstützen (dieser Teil wird von Julian Kniephoff entwickelt). |
30.11.2016 | Julian Kniephoff | MI | MSC | Anwendung von Computer-Vision auf die Computer-gestützte Rephotographie mit mobilen Endgeräten Die Rephotographie bietet eine unvergleichliche Möglichkeit, die Entwicklung interessanter Sehenswürdigkeiten, Menschen oder einfach Dinge des Alltags über lange Zeiträume oder über starke Veränderungen hinweg darzustellen. Voraussetzung für diese Art der Visualisierung ist neben einem "historischen" Bild ein Photo des gleichen Motivs mit identischer Perspektive, dessen manuelle Aufnahme sehr mühsam ist. Dieser Vortrag soll Wege aufzeigen, wie die Informatik – insbesondere mit Hilfe der heute allgegenwertigen mobilen Endgeräte – bei diesem aufwändigen Prozess helfen kann. Insbesondere wird darauf eingegangen, wie beispielsweise ein Smartphone aus dem historischen Bild und dem, was seine Kamera sieht, berechnen kann, wie der Photograph seine Pose verändern muss und darauf, wie wir ihm diese Anweisung deutlich machen können. |
30.11.2016 | Alexander Ditt | SE | BSC | Generierung von JavaFX-Benutzeroberflächen auf Basis von XML-Schemata Innerhalb der Arbeitsgruppe "Software Engineering" der Universität Osnabrück müssen für die Konfiguration eingebetteter Hardware/Software Systeme Spezifikationen am Computer eingegeben werden. Diese Ausarbeitung zeigt die Entwicklung einer JavaApplikation auf Basis von XML, XSLT sowie Java-FX. Die Applikation bietet dem Nutzer dynamisch Eingabemasken für die möglichen Konstruktionen und exportiert die Eingabe als XML Datei. Der Schwerpunkt der Arbeit liegt auf der Transformation von XML-Schemata in eine Java-FX Benutzeroberfläche, der Ausgabe als XML Datei sowie der einfachen visuellen und technischen Änderung/Erweiterung. Diese werden im Falle der technischen Änderungen durch eine Modularisierung des XSLT Dokumentes sowie im Fall der visuellen Änderung durch CSS eingebunden. |
07.12.2016 | Kai Rechtern | MI | MSC | Entwicklung einer kriteriengestützten Entscheidungshilfe für die Auswahl von clientseitigen JavaScript-Frameworks In der heutigen Zeit sind JavaScript-Frameworks sehr beliebt und Webentwickler stehen oft vor der Frage, welches der zahlreichen Frameworks sie wählen sollten. In dieser Arbeit soll eine Entscheidungshilfe entwickelt werden, die sich genau dieser Problematik annimmt. Hierzu müssen passende Kriterien erstellt werden, die einen guten Vergleich ermöglichen und bestenfalls mit neuen Frameworks/Versionen kompatibel sind. Aufbauend auf diesen Kriterien soll eine Webanwendung entwickelt werden, die in Form einer Umfrage die Interessen des Nutzers bestimmt und ein passendes Framework vorschlägt. |
07.12.2016 | Michael Stypa | MI | MSC | Interaktive Videos in Opencast Opencast ist eine Open Source Software zur Aufzeichnung von Lehrveranstaltungen. Der Konsum einer Aufzeichnung ist ein eher passiver Prozess. Um den Zuschauer aktiver teilhaben zu lassen können Videos um interaktive Inhalte ergänzt werden. Diese Arbeit beschreibt die Umsetzung von interaktiven Fragen in Opencast. Frageninhalte werden mittels QTI-Standard importiert und dem Zuschauer beim Abspielen angezeigt. Antworten und Lernerfolge der Zuschauer werden mittels xAPI an einen "learning record store" übermittelt und können später für die Analyse verwendet werden. |
14.12.2016 | Mats Leon Richter | TI | BSC | Komparative Evaluation funktionaler Klassen von adaptiven on-line Lernalgorithmen auf zeitvarianten Datenströmen Konzeptdrift ist eine unvorhersehbare Veränderung im Verhalten eines Datenstromes. Diese Veränderung kann graduell oder plötzlich sein. On-line Regressionsalgorithmen sind auf Datenströmen operierende Funktionsapproximatoren und daher besonders negativ von Konzeptdrift betroffen. Der wachsende Forschungsbereich des adaptiven Lernens beschäftigt sich damit, neue Methoden und Algorithmen zu entwickeln, die on-line Regression robust gegenüber Konzeptdrift machen. Diese Arbeit unterteilt die adaptiven on-line Regressionsalgorithmen in funktionale Klassen und untersucht diese Klassen experimentell auf ihre Lerneigenschaften, unter Datenströmen mit verschiedenen Arten von Konzeptdrift. Daraus sollen Kriterien entwickelt werden, die im Anwendungsfall bei der Auswahl der passenden adaptiven Lernalgorithmen genutzt werden können. |
14.12.2016 | Jonas Rothe | TI | BSC | Entwurf und Implementation einer lernfähigen Antischlupfregelung für holonome Roboter Moderne Antischlupfregelungen erhalten die Kontrollierbarkeit radgetriebener Fahrzeuge bei geringer Haftreibung der Räder oder hohen Beschleunigungskräften. Diese Systeme haben jedoch den Nachteil, dass sie erst dann eingreifen, wenn die Räder des Fahrzeugs bereits durchdrehen, sprich ein Kontrollverlust eingetreten ist. Um diesen Nachteil zu beseitigen, wird in dieser Bachelorarbeit eine lernfähige Antischlupfregelung entwickelt, die das dynamische Verhalten eines holonomen Roboters in den physikalischen Grenzsituationen erlernt und so eingreift, dass es gar nicht erst zu einem Durchdrehen der Räder kommt. Die lernfähige Antischlupfregelung wird auf dem Roboter PACO implementiert, in ihrer Leistungsfähigkeit evaluiert und mit dem klassischen nicht-lernfähigen Ansatz verglichen. |
14.12.2016 | Benjamin Graf | SE | MSC | Korrelation zwischen Testabdeckung, Software-Maßen und der Evolvierbarkeit in der automatisierten Testfallerzeugung Der Prozess der manuellen Testfallerzeugung ist in der Regel zeit- und kostenintensiv. Werkzeuge für die automatisierte Testfallerzeugung sollen diesen Prozess erleichtern und somit den Zeit- und Kostenaufwand senken. Im Evolutionary Structural Testing werden evolutionäre Algorithmen eingesetzt um Testsuiten zu generieren, die strukturorientierte Überdeckungskriterien maximieren. In der vorliegenden Arbeit soll in einer empirischen Studie untersucht werden, welche Zusammenhänge zwischen den verschiedenen Aspekten der automatisierten Testfallerzeugung bestehen. Dazu werden Eigenschaften der zu testenden Software, der erzeugten Testsuiten sowie des verwendeten Testfallgenerators über Maßzahlen quantifiziert und deren Korrelation untersucht. |
11.01.2017 | Marcel Wiegand | WB | BSC | Aufrechterhaltung einer konsistenten TSDF in KinectFusion Large Scale Die Online-Generierung von 3D-Repräsentationen gewinnt zur Zeit immer mehr an Bedeutung. Sei es in der mobilen Robotik, in der Virtual Reality oder auch in der Augmented Reality. Mit dem Las Vegas Reconstruction Toolkit (LVR) existiert bereits eine für die mobile Robotik optimierte Software-Lösung, die es mittels einer RGB-D-Kamera und dem KinectFusion Large Scale-Algorithmus ermöglicht, eine Oberflächenrepräsentation zu generieren. In dieser Arbeit soll das LVR Toolkit so erweitert werden, dass zuvor besuchte Bereiche identifiziert, von der Festplatte geladen und mit neuen Messwerten fusioniert werden, um die bisherige Repräsentation zu optimieren. |
11.01.2017 | Benjamin Lücking | SE | BSC | Entwicklung eines Prototypen zur Berechnung von kostenreduzierenden Strategien für den Smart-Meter-Rollout Die Bundesregierung sieht vor, dass bis zum Jahr 2032 ca. 20% aller Strom-Messzähler in Deutschland durch Smart Meter ausgetauscht werden. Eine Herangehensweise, die ausschließlich Messzähler zum Ende der Eichfrist austauscht, führt zwangsläufig dazu, dass unnötige Kosten entstehen. In dieser Bachelorarbeit wird eine Anwendung entwickelt, die den Rollout unter Berücksichtigung von Wege- und Anfahrtskosten plant und eine Strategie entwickelt, die diese Kosten minimiert. Dabei werden verschiedene Methoden des Data Mining nach ihrer Effizienz untersucht und dem Anwendungsfall entsprechend evaluiert. Die Applikation wird im Kontext von SAP Hana entwickelt, welche eine Entwicklungsplattform bereitstellt, die zur Analyse von großen Daten geeignet ist. |
18.01.2017 | Christoph Eichler | MI | MSC | Implementierung eines Remote Rendering Frameworks für eine Virtual Reality Applikation auf dem Smartphone Virtual Reality ist im kommen: Mit Geräten wie der Vive, Oculus Rift und Google Cardboard gibt es heute verschiedene Konzepte um Endverbrauchern ein VR-Erlebnis zu ermöglichen. Dabei steht der interessierte Käufer immer vor der Wahl eine teure VR-Brille zu erwerben oder mittels Google Cardboard einfache VR-Apps auf dem Smartphone wiederzugeben. Das Ziel dieser Masterarbeit ist die Vereinigung beider Ansätze: Die Grafiken werden auf einem dedizierten Server berechnet, um so die Hardwarelimitierungen des Smartphones zu umgehen. Danach wird das so berechnete Bild über das LAN versendet und mittels stereoskopem Renderer auf dem Smartphone wiedergegeben. Parallel werden Bewegungsinformationen des Smartphones an den Server übermittelt um ein realistisches Headtracking zu ermöglichen. |
18.01.2017 | Simon Narendorf | MI | BSC | Konzeption und prototypische Implementierung eines Verfahrens zur API-First-Entwicklung REST-basierter Webservices Bei der Entwicklung von REST-basierten Webservices sollten sich Entwickler nach einem Contract bzw. einer Beschreibung der API in maschinenlesbarer Form richten. API-First ist eine Strategie, wobei sich die Entwickler vor jeder Implementation auf eine API einigen, um anschließend in hohem Maße parallel arbeiten zu können. Erfolgt die Implementierug der API nun über eine Menge vieler dezentraler Quellcodedateien, führt es schnell zu einer unübersichtlichen und fehleranfälligen Projektstruktur. Daher soll die Beschreibung über eine zentrale Datei (ähnlich wie WSDL bei SOAP) direkt in die Implementation integriert werden. Mögliche Standardformate, wie RAML oder Swagger, können REST basierte Webservices formal definieren und auch zusätzliche Informationen speichern. Im Zuge dieser Arbeit wird eine prototypische Bibliothek entwickelt, die Zugriffe auf solche Dateien erhält und anhand der Informationen das Routing für die verschiedenen Endpunkte übernimmt. Die Bibliothek ist auch für zusätzliche Funktionen erweiterbar. Exemplarisch werden Funktionen integriert, wie Mapping zwischen ein- und ausgehenden Daten, Validierung, Authentifikationsmechanismen und Caching. Durch den Einsatz der Bibliothek soll die weiterführende Entwicklung vereinfacht werden und die APIs erhalten einen zentralen Platz in der Projektstruktur. |
25.01.2017 | Mathias Flüggen | KO | BSC | Algorithmen zur 2D-Verschnittoptimierung In der Holzindustrie werden häufig kleine rechteckige Teile aus Rohplatten geschnitten. Zur Gewinnoptimierung und Reduzierung von Abfällen soll der Verschnitt minimiert werden. Das Problem entspricht dem zwei dimensionalen Bin-Packing Problem (2BP), bei dem Rechtecke auf eine minimale Anzahl von Bins aufgeteilt werden. 2BP ist NP-schwer. Es müssen Teileanzahlen im industriellen Maßstab optimiert werden. Ziel dieser Arbeit ist daher die Untersuchung und Erweiterung von geeigneten Heuristiken für das 2BP. |
25.01.2017 | Ingmar Ludwig | MI | BSC | Visualisierung von Meereswellen auf der Erdkugel in Abhängigkeit von Windgeschwindigkeit und Windrichtung mit WebGL In der vorgestellten Bachelorarbeit wird mithilfe von WebGL eine anschauliche Visualisierung des Seegangs auf der Erde erstellt, die auf Daten über Windrichtung und -stärke basiert. Hierbei liegen die Gemeinverständlichkeit und der optisch ansprechende Eindruck im Vergleich zu bisherigen Ansätzen im Fokus. Die Ergebnisse dieser Arbeit sollen dann als Ausgangspunkt für die Evaluation weiterer Fragen, z.B. nach der Akzeptanz der Nutzer gegenüber einem solchen Ansatz, dienen. |
25.01.2017 | Katrin Ihler | MI | MSC | Active Learning for Twitter Sentiment Classification with Deep Neural Networks Im Rahmen der Projektgruppe DataTwiSt wurde ein System entwickelt, das anhand der über Twitter verschickten Nachrichten zeitnah Ereignisse erkennt und mittels Stimmungsklassifikation der einzelnen Tweets erfasst, wie die Nutzer darauf reagieren. Für die Stimmungsklassifikation wurden erfolgreich neuronale Netze eingesetzt. Allerdings erfordert dieser Ansatz, dass zuvor die Stimmungen einer gewissen Menge Tweets per Hand gelabelt werden müssen, um mit diesen dann das Netz trainieren zu können. Dieser Vorgang ist monoton und zeitintensiv. Active Learning verspricht, diesen Aufwand zu reduzieren, indem das Netz selbst solche Tweets zum Labeln auswählt, die sein Klassifizierungsverhalten besonders verbessern werden. Dadurch würden insgesamt weniger gelabelte Tweets benötigt. |
01.02.2017 |
Thorsten Langemeyer | MI | BSC | Visualisierung der Immatrikulationsdaten der Universität Osnabrück Die Universität Osnabrück verwaltet ihre Immatrikulationsdaten der Studenten und Absolventen in einer Oracle-Datenbank. Diese Datenbank wird zweimal pro Jahr aktualisiert und enthält eine große Menge an Informationen über die Studierenden und die Absolventen. Zum aktuellen Zeitpunkt dient die Datenbank vor allem als Grundlage für bestimmte Standardberichte, aber zum Teil auch für weiterführende Analysen. Um das Potential der Datenbank zu erkennen, soll anhand eines kleinen Ausschnitts eine Visualisierung stattfinden. Eine mögliche öffentliche Darstellung soll im Rahmen der Datenschutzbestimmungen geprüft werden. |
01.02.2017 | Dennis Altenhoff | MI | BSC | Entwurf und Implementation einer 3D-Web-Applikation zur Darstellung von Twitterdaten In der heutigen Welt werden soziale Medien wie Twitter mehr und mehr zu Meinungsträgern. Diesen Umstand kann man sich zu Nutze machen, um in kurzer Zeit die Meinungen vieler Menschen zu erhalten und zu analysieren, ohne auf langwierige Umfrageverfahren zurückgreifen zu müssen. Diese Arbeit soll eine Antwort auf die Frage liefern, wie man die so erhaltenen Daten gut visuell zugänglich machen kann, um eine Analyse der zuvor erworbenen Daten zu vereinfachen. Außerdem soll es so möglich sein, zu entscheiden, welche Teile eines Gebiets zusätzliche Werbemaßnahmen o.Ä. erfordern. Dafür werden die mit Stimmungsdaten versehenen Tweets anhand ihrer Lokation zusammgefasst und diese Gruppierungen anschließend als Balken in einer der durchschnittlichen Stimmung entsprechenden Farbe auf einer Weltkugel dargestellt. Diese Visualisierung soll, zur leichteren Erreichbarkeit, später auch im Internet erreichbar sein. |
01.02.2017 | Andreas Rinas | MI | BSC | Konzeption und Implementierung einer verlässlichen Pipeline zur gleichzeitigen Übergabe von Daten an verschiedene relationale und nicht-relationale Datenbanksysteme In Zeiten von Sozialen Netzwerken und der voranschreitenden Digitalisierung von Industrie und Dienstleistungssektor werden in immer größerem Umfang Daten erzeugt. Unternehmen versprechen sich durch geeignete Analysen dieser Daten Wettbewerbsvorteile in ihren jeweiligen Tätigkeitsfeldern. Die möglichen Vorteile reichen von der Optimierung interner Geschäftsprozesse, über die Minimierung von möglichen Risiken für das Unternehmen, bis hin zur besseren Produktplatzierungen durch die Analyse von Kundenverhalten. Das Unternehmen Q1 Energie AG nutzt die Datenanalyse unter anderem zur Untersuchung der ⁄Preisentwicklung auf dem Kraftstoffmarkt. Um die Vorteile verschiedner Analysewerkzeuge nutzen zu können werden die aufgezeichneten Marktpreisdaten in verschiedenen Datenbanksystemen zur weiteren Untersuchung gespeichert. Ziel der Arbeit ist die Konzeption und Implementierung einer Pipeline, die die vorliegenden Daten zuverlässig, d.h. fehlerfrei, lückenlos und konsistent in die verfügbaren Datenbanksysteme schreibt. Zur Überprüfung der Verlässlichkeit werden verschiedene Fehlerszenarien provoziert und das Reaktionsverhalten der Pipeline als Impulsgeber für die weitere Entwicklung verwendet. |