Informationsvisualisierung

Mediathek und Audiothek

Informationsvisualisierung

Suchfunktionen

Bei der Masse der über alle möglichen Quellen recherchierbaren Daten ist es oft schwer, den Überblick zu behalten. Eine Suchanfrage kann auch das Gegenteil von Erkenntnis schaffen, wenn eine Datenwolke am Monitor angezeigt wird, die niemand mehr durchschauen kann.
Seit den 90er Jahren gibt es ein informationstechnisches Spezialgebiet, das sich "Informationsvisualisierung" nennt.
Besonders relevant ist hier ein Algorithmus namens "Pathfinder", der von Roger Schvanevelt in den 80ern entwickelt worden war und im Bereich Kognitionspsychologie Anwendung fand. Dieser "Pathfinder" Algorithmus ist wichtig, weil er auswertet, an welchen zweiten Knoten eine Person auch dachte, wenn sie an einen bestimmten ersten Knoten dachte. Bei einer Ko-Zitations-Analyse etwa: Leute, die den Philosophen Immanuel Kant zitiert haben, haben auch den Philosophen Hegel zitiert. Der Pathfinder-Algorithmus misst die Häufigkeit der Verbindung und macht sie nicht nur darstellbar, sondern gibt auch eine Möglichkeit an, wie sich eine Datenwolke so beschneiden lässt, dass aus einem Netz, in dem alles mit allem verbunden ist, ein klarer Datenpfad als Graph in Form eines Baums entsteht und dieses Analysat kann doch recht gut gelesen werden. So fände man in einem solchermaßen analysierten Pfad etwa bei einer thematischen Suche die Breite der historischen Dokumentationen aus ARD, ZDF und 3Sat (und deren thematische Knoten innerhalb des Hauptthemas der Suchanfrage), während durchaus vorhandene Relationen zu politischen Dokumentationen der Gegenwart abgeschnitten werden würden/könnten. Wie genau die Trennung erfolgt, muss mit entsprechenden Schaltern, die auf der Plattform bereitzustellen sind, bestimmt werden.
Gerade dann, wenn ein riesiges Angebot von Videos zur Verfügung steht und dazu auch noch Digitalisate und Archivalien aus Museen und Bibliotheken, ist die Anwendung solcher sehr smarter Techniken aus dem Bereich Informationsvisualisierung erforderlich. Das Analysat herzustellen, ist extrem rechenlastig. Ich sehe hier die Notwendigkeit, quantum computation einzusetzen. Ich erwarte, dass die Rechenlast nicht auf meinem PC abgeladen wird, sondern diese Datenanalyse bereits in der ARD-Cloud gemacht wird. Dazu wäre schön, wenn sich so auch Videos aus Suchanfragen erzeugen lassen könnten. Früher hat man seinen PC einen halben Nachmittag an einer Fraktalgrafik in SVGA rechnen lassen, heute können wir in Fraktalgrafiken hineinzoomen und durch Drücken der Tasten (+) und (-) hinein- und herausfahren, schwenken etc. nach Belieben. So schnell wird das mit dem Semantic web nicht möglich sein. Aber dieses Portal heißt "Zukunftsdialog". Wenn diese Vision irgendwer in absehbarer Zeit realisieren kann, dann die modernen Hightech-Medien und ich bitte das Publikum um das Verständnis dafür, dass es hier des Einsatzes weiterer Mittel bedarf. Es ist daher abwegig, auf die GEZ zu verzichten.

Kommentare

Gespeichert von marcus@localhost am Mo., 31.05.2021 - 15:42

Permalink

Meiner Meinung nach ist das ein sehr spezieller Anwendungsfall, der wichtig ist, aber fraglich ob das geleistet werden muss. In der Tat sollten aber die Schnittstellen existieren und das Angebot an Entwickler bestehen, Zusatzdienste zu schaffen die so etwas wie beschrieben abbilden. Und zwar ohne Hürden. Natürlich muss auch da Missbrauch ausgeschlossen werden (wie auch immer das aussieht) und die Lizenzbedingungen so klar sein, dass kommerzielle Dienste nur unter bestimmten Bedingungen erstellt werden dürfen.

Siehe auch: Government Data and the Invisible Hand

"Today, government bodies consider their own websites to be a higher priority than technical infrastructures that open up their data for others to use. We argue that this understanding is a mistake. It would be preferable for government to understand providing reusable data, rather than providing websites, as the core of its online publishing responsibility.

Rather than struggling, as it currently does, to design sites that meet each end-user need, we argue that the executive branch should focus on creating a simple, reliable and publicly accessible infrastructure that exposes the underlying data. Private actors, either nonprofit or commercial, are better suited to deliver government information to citizens and can constantly create and reshape the tools individuals use to find and leverage public data. "
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1138083

In der Tat stammt ja auch die (noch immer gültige ?) Definition des Computer-Ontology-Begriffs ("explicit formalization of a shared conceptuaization") von Tom Gruber, die dieser in Standford (1998) so zuerst vertreten hat. Das ist der Geist, in dem wir denken sollten solange uns selbst nichts besseres einfällt. Der Lizenz-Frage widme ich meinen nächsten Beitrag.

Gespeichert von Tim Becker am Do., 24.06.2021 - 16:24
ARD-Themenpat:in

Permalink

Spannende Gedanken. Hab bitte Verständnis dafür, dass ich da wenig Konkretes zu deiner Zukunftsvision beitragen kann.
Jetzt schon wird dein Wunsch in Teilen mit den persönlichen Empfehlungen realisiert, wenn auch nicht visualisiert. Für uns ist der Datenschutz wichtig und es gelten auch sehr strenge Regeln, die wir beachten müssen. Aber Algorithmen und eine immer bessere Methodik für die Empfehlungen sind auch Teil unserer Weiterentwicklung. Je besser die Metadaten werden, desto besser können Empfehlungen auch thematische Bezüge abbilden. Seit gestern werden bei unseren Empfehlungen im Rahmen eines Forschungsprojekts transparente Erklärungen angezeigt.