Adresse und Kontakt AG Netzbasierte Informationssysteme FU Berlin Königin-Luise-Straße 24-26 14195 Berlin Tel.: +49-30-838-75221 Fax: +49-30-838-75220
| Netzbasierte Informationssysteme fügen herkömmlichen Datenbanken Visualisierung, Dynamik und Interaktion hinzu. In der Arbeit soll exemplarisch ein vorhandener Datenbestand durch Informationsextraktion verarbeitbar gemacht werden, in einem Web-System möglich vielfältig visualisiert. Implizite Informationen sollen ermittelt werden sowie externe Vernetzungen zu anderen Informationsbeständen genutzt werden. Bei einer Ausrichtung als Masterarbeit wird erhöhtes Augenmerk auf die Ermittlung impliziter und zusätzliche Informationen gelegt. Das zu erstellende Informationssystem soll sich mit den beim Deutschen Bundestag registrierten Verbände und deren Vertreter – kurz auch „Lobbyverbände“ – beschäftigen. Die dort in einem strukturierten PDF angebotenen Informationen sind entsprechend zu extrahieren und zu verarbeiten. Möglichkeiten zur Anreicherung dieser Informationen sind zu konzipieren und umzusetzen. Es gibt schon einfache Visualisierungen einzelner Facetten davon, diese sind aber nicht interaktiv. In der Arbeit soll mit Hilfe eines geeigneten Web-Frameworks zur Visualisierung gearbeitet werden um eine facettierte Exploration der Informationen zu ermöglichen. Wo möglich sollen externe Bezüge zu anderen Informationsbeständen eingebettet werden. Art der Arbeit: Bachelorarbeit, oder mit anspruchsvollerer Informationareicherung Diplom- oder Masterarbeit Voraussetzungen: Kenntnisse in Informationsextraktion, Visualisierung, Webtechnologien Betreuer: Prof. Robert Tolksdorf Weitere Informationen: Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...] Auf dem fünften nationalen IT-Gipfel im Dezember 2010 vereinbarten die Teilnehmer des Gipfels aus Politik, Wissenschaft und Wirtschaft bis zum Jahr 2013 „[den] Aufbau einer zentral zugänglichen, den Interessen der Nutzer an einem einheitlichen, leichten und benutzerfreundlichen Zugriff gerecht werdenden Open-Data-Plattform“. Dieses Ziel hat längst prominente Vorbilder, insbesondere im angelsächsischen Raum (z.B. [1], [2]). In Deutschland existieren auch erste Projekte (z.B. [3]), offene Verwaltungsdaten frei und öffentlich anzubieten. Der erste Schritt ist es die Daten anzubieten, aber der nun folgende Schritt ist es, das Verwertungspotential der Daten aufzuzeigen. Um dieses Verwertungspotential zu evaluieren, wurde unter anderem die Initiative Apps4Deuschland [4] ins Leben gerufen, die bereits im ersten Durchgang interessante Ergebnisse lieferte. In dieser Bachelorarbeit sollen Kriterien aus bestehenden formalen Spezifikationen für Grafiken (Bertin’s Semiologie von Graphiken, Mackinlay’s APT System, Polari) analysiert und daraufhin untersucht werden, inwieweit sie für den vorliegenden Anwendungsbereich geeignet sind. Das übergeordnete Ziel soll es sein, den Nutzer bei dem Prozess der Datenanalyse visuell zu unterstützen. Es sollen dazu Daten, aus unterschiedlichen Datenquellen verknüpft werden. Das Ergebnis der Verknüpfung und die darauf aufbauende Visualisierung soll auch anderen Nutzern zur Verfügung gestellt werden. Die theoretischen erarbeiteten Kriterien sollen auf vorhandene Webtechnologien übertragen (was ist überhaupt möglich?) und danach innerhalb … [...Weiterlesen/more...] Mittlerweile existieren eine Vielzahl von unterschiedlichen Ansätzen, in denen die Qualität von Autorenbeiträgen oder die Qualität von Artikeln untersucht wird. Innerhalb dieser Studien werden zumeist bestimmte Aspekte untersucht und visualisiert, wie beispielsweise die Editieraktivität von Autoren in der Wikipedia mit sogenannten Chromograms [1], Änderungen auf Diskussionsseiten mit History Flow Diagrams [2] oder aber auch die Ko-Autorenschaft zwischen Artikeln basierend auf Netzwerken [3]. Ebenfalls werden Nutzeränderungen direkt im Wiki angezeigt wie bei Wiki–Dashboard [4]. Daneben existieren aber auch Visualisierungen, in denen der rein visuelle Aspekt im Mittelpunkt steht, wie beispielsweise in [5]. Die Frage der in dieser Diplomarbeit nachgegangen werden soll ist aber, wie durch Visualisierungen zur Artikelqualität bzw. zum Editierverhalten die dem Nutzer direkt zur Verfügung gestellt werden, das Nutzerverhalten indirekt beeinflusst wird oder indirekt beeinflusst werden kann. Dazu soll zunächst ein Überblick über bestehende Ansätze zur Nutzeraktivität und Artikelqualität erfolgen. Diese Ansätze sollen auf ihre Nutzbarkeit bzw. Erweiterbarkeit hinsichtlich der Verwendung in dieser Forschung untersucht werden. Dabei geht es vor allem darum, Kriterien zu ermitteln, die eine solche vergleichende Bewertung erlauben. Dazu sollte auf bestehende Literatur aus den Bereichen der Informationsvisualisierung (z.B. [6], [7]) und Visual Analytics [8] zurückgegriffen werden. Die Ergebnisse sollen genutzt werden, um eine eigene Visualisierung … [...Weiterlesen/more...] Die Analyse der Nutzung von Webseiten stellt schon heute eine wichtige Grundlage für bedarfsorientierte Angebote im Web dar. Kommen die Technologien des Semantic Web zur Anwendung, wird diese Analyse ungleich schwieriger, weil reine HTTP-Antworten des Servers zum Beispiel keine Aussage darüber zulassen, ob und welche Daten durch eine SPARQL-Anfrage an einem Endpoint gefunden wurden. Für die Betreiber von semantischen Datenrepositories verbergen sich aber hinter ebendiesen Infomrationen interessante Rückschlüsse auf die Qualität der Daten im Bezug zu den Anforderungen der Nutzer bzw. der Anwendungen, die diese Daten nutzen. Im Rahmen eines Promotionsvorhabens wurde eine Methode zur Sammlung solcher Nutzungsinformationen entworfen und implementiert und es liegen erste Beispieldaten über die Nutzung des DBpedia 3.3 Datensets vor. Im Rahmen dieser Arbeit sollen nun die Beispieldaten und die ihnen zugrunde liegenden Ontologien durch eine Erweiterung der quelloffenen Software SONIVIS als Netzwerk visualisiert werden. Darüberhinaus sollen, ebenfalls für das SONIVIS Tool, Metriken entworfen und implementiert werden, die unterschiedliche Sichten auf diese Netzwerke ermöglichen. Ein Beispiel hierfür wären sogenannte Heat Maps, d.h. eine Visualisierung, die anhand der Anfragehäufigkeit Konzepte der Ontologie größer oder kleiner darstellt. Art Bachelor- oder Studienarbeit Voraussetzungen Kenntnisse in Programmierung mit Java und dem Umgang mit Eclipse. Kenntnisse in RCP Entwicklung von … [...Weiterlesen/more...] Die automatische Zusammenfassung von Web-Seiten (automatisches Abstracting) basiert auf statistischen oder computerlinguistischen Verfahren auf dem Textinhalt einer Seite. Web-Seiten haben aber auch eine visuelle Repräsentation (die Darstellung im Web-Browser), die – beispielsweise durch Stylesheets beeinflusst – weitere Hinweise auf entscheidende Inhalte geben kann, die für ein Abstracting genutzt werden sollten. In der Arbeit soll ein Konzept entwickelt und prototypisch implementiert werden, das für eine Web-Seite ein Abstract erzeugt und dabei die visuelle Erscheinung der Seite untersucht. Dazu sollen geeignete Browser-Erweiterungen (z.B. Web Developer) modifiziert werden. Zu berücksichtigen sind visuelle Eigenschaften von Textteilen wie Position auf der Seite, Größe, Farbkontrast zu den anderen Teilen etc. Die Ergebnisse sollen geeignet evaluiert werden. Art der Arbeit Diplom- oder Masterarbeit Voraussetzungen Kenntnisse in Web-Technologien, insbesondere Seitendarstellung, Technologie von Web-Browsern, Interesse an Gestaltungsprinzipien im Web. Betreuer Prof. Dr.-Ing. Robert Tolksdorf Weitere Informationen Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...] | |