Adresse und Kontakt AG Netzbasierte Informationssysteme FU Berlin Königin-Luise-Straße 24-26 14195 Berlin Tel.: +49-30-838-75221 Fax: +49-30-838-75220
| The FIS 2010 doctoral consortium was held at the FU Berlin September 23-24. The two days event was an insightful feedback session for 10 PhD researchers from all around Europe. Each of the junior researchers was individually supported by one senior researcher who gave detailed feedback on the presented work. More information about the format and contents of the event can be found at http://www.fis2010.org/program/doctoral-consortium… [...Weiterlesen/more...] We now export metadata as SIOC, Dublin Core and Topic Maps for all posts on our site. Thanks to several WordPress plugins…… [...Weiterlesen/more...] 2-stündig, ECTS: 4 Dozenten: | Markus Luczak-Rösch | Sprache: | Deutsch | Mailingliste: | Bitte bei nbi_s_webtech anmelden! | Zeitraum: | 20.10.2010 bis 16.02.2011 | Haupttermine: | Mittwoch 16 – 18 Uhr – Königin-Luise-Str. 24-26 HS 06 | maximale Teilnehmerzahl | 30 (An-/Abmelden) | Inhalt: | In dem Seminar beschäftigen wir uns mit neuesten Entwicklungen und Standards (u.a. des W3C) für Web-Technologien. In Referaten und Diskussion werden Zielsetzung, technische Eigenschaften und Anwendungsbereiche der Technologien analysiert. Außerdem soll ein Einblick in den neuen Forschungsbereich Web Science gewonnen werden. | Voraussetzungen: | Englischkenntnisse, Kenntnisse in XML- und Web-Technologien | Literatur: | Standarddokumente des W3C, Formatvorlage der FU Berlin | Leistungs- nachweise | Referat und Ausarbeitung, je nach Teilnehmeranzahl angepasst in Anlehnung an den Artikel Stefan Weber: Wissenschaft als Web-Sampling, Telepolis, 15.12.2006 (http://www.heise.de/tp/r4/artikel/24/24221/1.html) legen wir für die Ausarbeitungen fest: - Direkte Zitate aus dem Internet nie zur Faktenvermittlung, sondern nur noch als illustrative Beispiele, wenn also das Zitat selbst thematisiert wird
- Keine Zitate von der Wikipedia, außer zur kritischen Kommentierung
|
Bitte beachten Sie die Hinweise zu Ablauf und Leistungserbringung in Seminaren bei NBI und die Hinweise zu Plagiaten. Datum | Thema | Vortragende | Referees |
---|
20.10.2010 | Einleitung, Themenvergabe | Luczak-Rösch | — | 27.10.2010 | Hinweise zu Referaten und zu Ausarbeitungen (Folien) | Luczak-Rösch | — | 03.11.2010 | Das W3C, Struktur, Standards und neueste Entwicklungen |
… [...Weiterlesen/more...]Die Analyse der Nutzung von Webseiten stellt schon heute eine wichtige Grundlage für bedarfsorientierte Angebote im Web dar. Kommen die Technologien des Semantic Web zur Anwendung, wird diese Analyse ungleich schwieriger, weil reine HTTP-Antworten des Servers zum Beispiel keine Aussage darüber zulassen, ob und welche Daten durch eine SPARQL-Anfrage an einem Endpoint gefunden wurden. Für die Betreiber von semantischen Datenrepositories verbergen sich aber hinter ebendiesen Infomrationen interessante Rückschlüsse auf die Qualität der Daten im Bezug zu den Anforderungen der Nutzer bzw. der Anwendungen, die diese Daten nutzen. Im Rahmen eines Promotionsvorhabens wurde eine Methode zur Sammlung solcher Nutzungsinformationen entworfen und implementiert und es liegen erste Beispieldaten über die Nutzung des DBpedia 3.3 Datensets vor. Im Rahmen dieser Arbeit sollen nun die Beispieldaten und die ihnen zugrunde liegenden Ontologien durch eine Erweiterung der quelloffenen Software SONIVIS als Netzwerk visualisiert werden. Darüberhinaus sollen, ebenfalls für das SONIVIS Tool, Metriken entworfen und implementiert werden, die unterschiedliche Sichten auf diese Netzwerke ermöglichen. Ein Beispiel hierfür wären sogenannte Heat Maps, d.h. eine Visualisierung, die anhand der Anfragehäufigkeit Konzepte der Ontologie größer oder kleiner darstellt. Art Bachelor- oder Studienarbeit Voraussetzungen Kenntnisse in Programmierung mit Java und dem Umgang mit Eclipse. Kenntnisse in RCP Entwicklung von … [...Weiterlesen/more...] Informationen über wissenschaftliche Konferenzen in der Informatik und anderen Wissenschaften sind im Netz nur schlecht erschließbar. Neben den völlig verstreut angebotenen eigentlichen Konferenzankündigungen und Aufrufen zur Beitragseinreichung gibt es verschiedene Angebote mit Sammlungen solcher Informationen. So wollen z.B. allconferences.com oder goingtomeet.com möglich alle Konferenzen erfassen, während Fachverbände wie die IEEE, die ACM oder die GI jeweils informatikspezifische Kalender anbieten. Wissenschaftler möchten die Anfrage „Auf welchen Konferenzen kann ich meine Arbeit im Themenbereich X, Y und Z einreichen“ einfach von einer Suchmaschine beantwortet bekommen. Eine solche Suchmaschine existiert bislang aber nicht. In der Arbeit soll ein Rahmenwerk geschaffen und exemplarisch für informatische Themen realisiert werden mit dem aus unterschiedlichen Quellen erschlossene Konferenzankündigungen Informationen über die jeweils geforderten Themen ermittelt werden und auf dieser Basis die obige Anfrage präzise und umfassend beantwortet werden kann. Dabei soll eine Ontologie für die Themenklassifikation sowie eine semantische Suche genutzt werden. Das Rahmenwerk soll exemplarisch für Konferenzen aus der Informatik realisiert werden, gleichzeitig aber so allgemein sein, dass leicht eine Suchmaschine für andere Disziplinen (z.B. Elektrotechnik, Mathematik) oder andere Veröffentlichungsarten (z.B. wissenschaftliche Zeitschriften) konfiguriert werden könnte. Die zu erstellende Software soll als LGPL lizensiert sein. Art der Arbeit Diplom- oder Masterarbeit Voraussetzungen Kenntnisse in Web-Technologien … [...Weiterlesen/more...] Lehrveranstaltungen, Weiterbildungen etc. werden von Prüfungen abgeschlossen, die beispielsweise als Klausuren eine Reihe von Prüfungsfragen in geeigneter inhaltlicher Kombination in geeigneten Schwierigkeitsgraden zusammenstellen. Diese Zusammenstellung in hoher Qualität ist momentan ein manueller und damit teurer Vorgang. Aus einem Pool von Aufgaben werden mit menschlichem Hintergrundwissen um den Inhalt und die Schwierigkeit einige ausgewählt und zu einer Klausur kombiniert. Falls bestimmte Themen noch nicht abgedeckt sind, werden neue Aufgaben erstellt. In der Arbeit soll dieser Vorgang automatisiert werden. Aufgaben sollen dabei einzeln geeignet mit Metadaten zu ihrem Inhalt und Schwierigkeitsgrad markiert sind. Es soll eine Zielvorgabe für inhaltliche Schwerpunkt der Klausur und ihrer Schwierigkeit geben. Die in er Arbeit zu erstellende Software soll dann mit Hilfe Semantischer Technologien eine geeignete Auswahl treffen und die Klausur kombinieren. Als triviales Beispiel könnte in einer Klausur eine Frage nach einem Internet-Transportprotokoll gestellt werden sollen. Vorhandene Aufgaben zu NNTP, FTP, HTTP etc. sind als solche semantisch markiert und in einer Ontologie ist vermerkt, dass sie alle Internet-Transportprotokolle sind. Das System soll dann automatisch eine davon auswählen. Art der Arbeit Studien-, oder Bachelorarbeit Voraussetzungen Kenntnisse in Semantischen Technologien Betreuer Prof. Robert Tolksdorf Weitere Informationen Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...] Wissen über komplexe Zusammenhänge lässt sich in Modellen fassen. Eine Form der Modelle sind Ursache-Wirkungsmodelle bei denen die Wirkung einer Entität im Modell auf eine andere beschrieben wird. Aktuell könnte man modellieren, dass eine staatliche Prämie für die Verschrottung von Altwagen sich positiv auf den Absatz von Neuwagen auswirkt. Es gibt Anwendungen wie Consideo, die eine solche Modellierung unterstützen und durch Simulationen ergänzen. Nun könnte aber diese Modellierung auch gemeinsam erfolgen. Ein zweiter Benutzer könnte beispielsweise den Zusammenhang hinzufügen, dass durch höheren Absatz von Neuwagen der durchschnittliche Benzinverbrauch im Fahrzeugverkehr sinkt. Ein dritter könnte hinzufügen, dass damit die Nachfrage nach Benzin sinkt und ein vierter, dass somit der Benzinpreis eher sinkt. In der Arbeit soll ein Konzept und eine prototypische Implementierung einer solchen gemeinsamen Wissensmodellierung mit Ursache-Wirkungsmodellen erstellt werden. Dabei sollen Konzepte sowie Beziehungen (trivialerweise zunächst „positiver Einfluss (+)“ und „negativer Einfluss (-)“) zwischen ihnen mit Technologien des Semantic Web typisiert werden. Die Anwendung selber besteht aus einer Web-basierten Software, die das Einfügen von Abhängigkeiten durch unteschiedliche Benutzer ermöglicht und eine geeignete Darstellung erzeugt. Art der Arbeit Diplom- oder Masterarbeit Voraussetzungen Kenntnisse in Web-Technologien, Modellierung, Semantic Web Betreuer Prof. Dr.-ing. Robert Tolksdorf Weitere Informationen Sprechstundentermin bei Prof. Robert Tolksdorf… [...Weiterlesen/more...] Zur Darstellung von Graphen und Netzwerken existiert eine Fülle von Software, Tools und Forschung. Ein verbreitetes Modell ist die Verwendung von Kräften mit denen sich verbundene Knoten anziehen oder abstoßen. In der Arbeit soll anhand mehrerer Verfahren erprobt werden, inwiefern sich semantische Abstandsmasse als Grundlage für solche Kräfte verwenden lassen. Dazu ist ein Konzept zu erstellen, eine geeignete Open Source Software auszuwählen und zu erweitern sowie das Konzept zu evaluieren. Art der Arbeit Studien- oder Bachelorarbeit Voraussetzungen Kenntnisse mindestens in einem der Bereiche Semantic Web und Graphlayout Betreuer Prof. Dr.-Ing. Robert Tolksdorf Weitere Informationen Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...] | |