Ich versuche mich gerade wieder etwas mit der Thematik Semantic Web zu beschäftigen. So alt dieses Thema bereits ist, schon seit vielen Jahren wird vom Semantic Web gesprochen, so neu ist das Thema gleichzeitig, denn noch immer wurde nicht der entscheidende Durchbruch erzielt und so diffus ist auch das Thema -zumindest für mich.
Um ein klein wenig Klarheit in den Sachverhalt zu bringen, erscheint es mir sinnvoll, sich zum einen über die verschiedenen Ansätze und Konzepte der Semantic Web Technologie Gedanken zu machen, zum anderen über die Ziele und Einsatzzwecke dieser Technologien zu schreiben.
Die hier dargestellten Gedanken beruhen auf meinen Beobachtungen und Gesprächen und nicht auf wissenschaftlichen Arbeiten, daher bitte ich um Korrekturen und Hinweise, falls und inwieweit ich mit diesen Ausführungen neben der schon wissenschaftlich geleisteten Arbeit liege.
Technische Konzepte für das Semantic Web
Alles rund um Ontologien
Wenn ich das richtig beobachte, gibt es viele Vertreter, die ihre Technologie rund um Ontologien aufbauen. D.h. hier werden externe Strukturen und Systematiken aufgebaut, welche Zusammenhänge von Begriffen darstellen und erklären. Computer können sozusagen, in diesen Verzeichnissen nachschauen und wissen dann, wie die zu erklärenden Begriffe zu verstehen sind und in welchen Zusammenhänge diese Begriffe stehen. Damit der Computer weiss, welchen Begriff er nachlesen kann, gibt es im zu interpretierenden Text Metainformationen. In diesem Zusammenhang fallen Begriffe wie RDF, SPARQL, OWL, URI, und sicherlich weitere?
Alles rund um Neuronale Technologie
In der Computertechnologie wird versucht, die Arbeitsweise des Gehirns in Form von künstlichen neuronalen Netzen zu kopieren. Dabei sollen Computer ähnlich wie beim Gehirn aus Vorgängen lernen und so die Analysen verbessern. Neuronale Netze kommen im Gegensatz zu dem oben genannten Ansatz ohne externe Verzeichnis und Strukturen aus, denn Neuronale Netze versuchen anhand von Mustern im zu untersuchenden Objekt eine Interpretation und Kategoriesierungen vorzunehmen. Dazu müssen die Computer mit Beispielen geschult werden, bevor sie die eigentliche Objekte untersuchen können. Der Vorteil liegt in der dynamischen Anpassung und Weiterentwicklung der Interpretation.
Alles rund um Linguistische Methoden
Ich nenne diesen Bereich einfach mal „linguistische Methoden“. Soweit ich es verstanden habe, gibt es neben den oben genannten Ansatz auch eine Arbeitsweise, die auf sprachwissenschaftlichen Ansätzen aufbaut und die versucht die Sprache zu analysieren, um zu Ergebnissen zu kommen. Eine genaue Vorstellung wie das funktioniert habe ich leider nicht.
In wie weit ähnelt dieser Ansatz der Übersetzungssoftware?
Einsatzmöglichkeiten in der Tourismusbranche
Es gab und gibt einige Versuche in der Tourismusbranche die Suchfunktionen zu verbessern. Beispielsweise, dass die Gäste nach freien oder vielfältigen Kriterien Suchen können und dennoch sinnvolle Treffer erhalten. Für diese Einsatzzwecke gab und gibt es Projekte, die auf Ontologien aufgebaut haben.
Auch für Datenstandardisierungen lassen sich Ontologien einsetzen. Hierzu kann in einem unstrukturierten Text mit Hilfe der Meta-Information und der erklärenden Ontologien eine Struktur erstellt werden. Der Autor eines Texte kann mit Hilfe einiger leicht bedienbaren Tools, die entsprechenden Textstellen kennzeichnen und die Meta-Information hinzufügen. Die Interpretation und die Ableitung, wie diese Text vom Computer zu lesen ist, liegt in der Ontologie, die wiederum von anderen Personen gepflegt und entwickelt werden kann.
Ich nenne das Nächste einfach mal Serendipity. Der Leser bekommt zu seinem Text, zu seiner Information, die er im Netz sucht, einen für neuen, überraschenden Text (Inhalt) vom Computer hinzugespielt, der thematisch sinnvoll und für das Leserverhalten hilfreich ist. z.B. Liest ein Nutzer einen Text über ein Reiseland, dann bekommt er vom Computer automatisch Informationen über Visa-Bedingungen, über Impfbedingungen oder aktuelle Nachrichten zu der Region hinzugespielt. Dies lässt sich zum einen über den Ansatz mit Ontologien abbilden, dazu müssen aber alle Texte mit Meta-Informationen versehen sein, oder es lässt sich mit Hilfe von neuronalen Netzen umsetzen. Diese würde anhand der Text-Muster entscheiden, welche Inhalte zueinander passen oder nicht.
Statistische Auswertung von Texten wird zukünftig immer wichtiger werden. Je mehr Inhalte im Netz produziert werden, desto wichtiger wird ein Monitoren dieser Inhalte für Unternehmen. Im Idealfall bewerten Computer die Texte zuverlässig und geben die Inhalte in Übersichten und Grafiken wieder. Meines Wissens gibt es derzeit Ansätze auf Basis von dem was ich hier „linguistischer Ansatz“ genannt habe. Ich kann mir aber gut vorstellen, dass die anderen Ansätze ähnliche Fragestellungen lösen können.
Das Ziel dieses Blogbeitrags ist ein erster Versuch das weite Feld des „Semantischen Webs“ für Touristiker zu strukturieren und zu beschreiben. Ich hoffe, ich liege aus fachlicher Sicht nicht ganz daneben und bitte um Korrekturen und ergänzende und präzisierende Informationen aus der Fachwelt.