Okshita-Rafia Karim
RWTH Aachen University
okshita-rafia.karim@rwth-aachen.de

Vorwort

Das Resultat des Proseminars “Algorithmen für die Entdeckung von Communities in sozialen Netzwerken” ist das hier vorliegende Online Buch, welches im Sommersemester 2020 im Bachelor-Studiengang Informatik an der RWTH-Aachen erfolgreich erarbeitet wurde. Dieser Prolog soll einen kurzen summarischen Überblick in die Thematik dieses Proseminars verschaffen und ein Honneurs an die Informatik-Studenten aussprechen, denn die Visualisierung, die Begutachtung, die PR, die Inhalte und das Layout wurden von ihnen selbstständig organisiert und ausgestaltet. Die Hauptaufgaben dieses Proseminars war das Anfertigen eines Online-Buches über OCD-Algorithmen beziehungsweise eine Erweiterung des vorhandenen Online-Buches und das kooperative Arbeiten in Gruppen. Dafür wurden vertikale und horizontale Teams geschaffen. Die vertikalen Teams waren für das Verfassen von den Kapiteln pflichtig und die horizontalen Teams für das Durchführen des Entwicklungsganges. Jeder der Beteiligten des Proseminars war Teilnehmer in einem vertikalen und einem horizontalen Team. Im horizontalen Team wurden die Teams: Visualisierungs-Team, die pflichtig für die Visualisierung von Schnittstellen der verschiedenen Knoten in den Implementierungen der Algorithmen sind, erstellt, dies haben sie in Form von Spiderweb-Diagrammen illustriert. Das Layouting-Team, welches verantwortlich für die Veranschaulichung des Buches ist, das Dokumentations- und PR-Team für die Publizierung des Buches, das Herausgeber- und Begutachtungs-Team für die Organisation der internen Begutachtung durch die Plattform EasyChair und zuletzt das Präsentations-Team, für die Gestaltung der Präsentationsfolien, erstellt.

Random Walks von Okshita-Rafia Karim beschreibt einen Algorithmus, der sich damit beschäftigt in mathematischen Räumen Zusammenhänge zu erkennen und zu analysieren. Ein bekanntes Anwendungsbeispiel des Random Walks, wäre der Page-Rank Algorithmus, der Websites bei Suchanfragen nach ihrer Popularität sortiert. Dabei werden schon bekannte Implementierungen von Random Walks analysiert, unter anderem Time-Rank, ein Algorithmus, der sich mit der dynamischen zeitlichen Entwicklung von Communities beschäftigt. Außerdem wird eine verfeinerte Version des Info-Map Community Algorithmus, welcher über gewichtete Metadaten, in Abstimmung mit der Struktur der zu untersuchenden Communities, zusammenhängende Netzwerke erkennt, untersucht. Noch dazu wird auf einen auf dem Markov-Modell basierten Ansatz, welcher überlappende Communities in komplexeren Netzwerken findet und diese entwirrt bzw. strukturiert darstellt, beschrieben.

Modularity Optimization von Jens Slickers und Jonas Hermsen befasst sich mit einem Algorithmus, der eine geläufige Methode ist, um Communities in sozialen Netzwerken zu entdecken, die Modularität in einem Netzwerk zu errechnen und aufgrund dessen den Graph auszuforschen und aufzuzeigen, welche der Agglomeration von Knoten in dem Netzwerk eine Community darstellen könnte. Dabei verwenden Sie die Definition von Girvan und Newman, welche eine dominierende Interaktion innerhalb der Gruppe vorweisen und eine mindere Interaktion außerhalb der Gruppe.

Das Kapitel Flow-based Algorithms(FBA) von Esther Roterring und Joshua Martius beschäftigt sich mit verschiedenen Anwendungsbeispielen, wie zum Beispiel RelaxMap, InfoMap und OCDID, die miteinander verglichen werden, zudem werden Sie einen selbstgeschriebenen FBA zur Illustration zeigen. Die Absicht Ihrer Arbeit ist es eine Basis deutscher Literatur zu formieren.

Der Algorithmus Deep Learning von Florian Plümäckers und Johannes Ehls fokussiert sich auf die Gruppenidentifizierung, einem Grundstein des maschinellen Lernens. Dabei charakterisieren Sie in deren Arbeit diverse Graph-Neural-Network-Algorithmen (GNN), stellen die Ansätze gegenüber und weisen Gemeinsamkeiten und Unterschiede zwischen ihnen auf. Zuletzt wird die Implementierung eines Line Graph Neural Network (LGNN) auf verschiedene Datensätzen laufe. Anschließend werden die Resultate in einem Graphen visualisiert.

Subspace Clustering von Ruizhang Zhou, Joju Mori und Tingwei Feng setzt sich damit auseinander, den Inhalt in diverse Dimensionen zu gliedern und diverse Subspaces gesondert zu prüfen. Dieser Algorithmus ordnet die Suche nach bedeutsamen Dimensionen ein, sodass sie die Cluster, die in mehreren, möglicherweise überlappenden Unterräumen vorliegend sind, auffinden können.

Der Algorithmus Ant-Colony von Joana Schmidt und Torben Wittek dient zur Erforschung von Communities und Überlappungen zwischen Gruppen. Basierend auf die Aufführung von Ameisen bei der Futtersuche, werden dabei diverse Wege (Kanten) formiert, um zum Problem eine Möglichkeit ein effizientes Ergebnis zu entdecken.

Spectral Clustering von Rene Evertz und Sven Büge untersucht aufgrund seiner Vielseitigkeit die reichlichsten Datensätze aussichtsreich, jedoch bedarf es einiges an Empirie, um die anerkannteste Art des Spectral Clustering zu erkiesen, da es bis jetzt noch keine bewiesenen umfassenden Vorgehensweisen gibt, bis auf ungefähre Vorgehensweisen.

Als Quintessenz kann man sagen, dass dieses Proseminar ein sogenanntes Abenteuer für alle Beteiligten war, da wir vieles dazu gelernt haben. Zu Beginn des Proseminars haben wir Workshops durchgeführt, wie zum Beispiel die Grundlagen der linearen Algebra und Stochastik, das Lesen und Schreiben wissenschaftlicher Arbeiten, die Nutzung von Javascript-Bibliotheken zur Visualisierung von Ergebnissen und die Durchführung eines Peer Reviews. Noch dazu kam es zur Anwendung von agilen Softwareentwicklungen, wie zum Beispiel, Jekyll, GitLab, und Slack.

Wir danken dem Priv.-Doz. Dr. rer. nat. Ralf Klamma, Peter de Lange und Kim Fidomski für die schöne Zeit.

Aachen, im Juli 2020