Logo

ZeroOpposite

Contact Us
Search

WIE ALGORITHMEN, EMPFEHLUNGSSYSTEME UND CONTENT-MODERATION DIE SICHTBARKEIT VON QUEER IM INTERNET BEEINFLUSSEN deEN IT FR PL TR PT RU AR JA CN ES

2 min read Queer

Das Internet hat die Art und Weise revolutioniert, wie Menschen kommunizieren, kommunizieren, sich ausdrücken und interagieren. Es ist heute ein wichtiger Teil des täglichen Lebens von Milliarden von Nutzern auf der ganzen Welt.

Wie jedes andere Medium ist es jedoch anfällig für Verzerrungen, die sich auf die Repräsentation bestimmter Gruppen, einschließlich der LGBTQ + -Community, auswirken können. Dieses Papier wird untersuchen, wie Algorithmen, Empfehlungssysteme und die Moderation von Inhalten die Sichtbarkeit und Marginalisierung queerer Stimmen im Internet beeinflussen.

Algorithmen sind Anweisungssätze, die von Suchmaschinen verwendet werden, um Websites nach Keywords, Backlinks und anderen Faktoren zu bewerten. Sie bestimmen, welche Ergebnisse angezeigt werden, wenn jemand eine Abfrage eingibt. Algorithmen priorisieren häufig massive Websites, die LGBTQ + -Inhalte ausschließen können. Zum Beispiel ordnet der Google PageRank-Algorithmus Seiten basierend auf Linkpopularität und Relevanz, während Yahoo! Die Suche verwendet logische Logik, um Dokumente aus dem Index zu extrahieren. Diese Methoden bieten zwar Relevanz, können aber auch zu einer Unterrepräsentation von Minderheiten führen.

Empfehlungssysteme sind Programme, die Elemente anbieten, die sich auf die Präferenzen oder das Verhalten des Benutzers beziehen. Sie sind in eCommerce-Plattformen, Streaming-Diensten, Newsfeeds und sozialen Medien zu finden. Diese Algorithmen analysieren Benutzerdaten wie Likes, Klicks, Shares und Browserverläufe, um die Benutzererfahrung zu personalisieren. Sie können jedoch Stereotypen über Sexualität, Geschlechtsidentität und Einstellungen verstärken, mit Ausnahme von seltsamen Perspektiven.

Im Facebook News Feed werden beispielsweise Beiträge angezeigt, die den Interessen des Nutzers entsprechen und alternative Standpunkte ignorieren.

Content-Moderation bezieht sich auf den Peer-Review-Prozess, die Entfernung und Regulierung von Benutzerinhalten, insbesondere von Bildern, Videos und Kommentaren. Es soll Hassreden, Stalking, Gewalt und illegale Aktivitäten verhindern, kann aber auch die Äußerung von LGBTQ + unterdrücken. Moderatoren verwenden automatisierte Tools wie Machine-Learning-Modelle, um missbräuchliche Ausdrücke und Nacktheit zu identifizieren, was zur Entfernung von queeren Inhalten führt. Social-Media-Plattformen können bestimmte Begriffe wie „trans" oder „schwul" zensieren, was die Darstellung einschränkt.

Zusammenfassend bilden Algorithmen, Empfehlungssysteme und Content-Moderation die Sichtbarkeit und Marginalisierung queerer Stimmen im Internet. Sie können unterschiedliche Perspektiven ausschließen, indem sie wichtige Websites priorisieren, Stereotypen stärken und LGBTQ + -Ausdrücke unterdrücken. Die Verbesserung dieser Systeme erfordert die Zusammenarbeit zwischen Entwicklern, Forschern, politischen Entscheidungsträgern und Gemeinschaften, um Inklusion und Vielfalt im Internet zu fördern.

Wie gestalten Algorithmen, Empfehlungssysteme und Content-Moderation die Sichtbarkeit und Marginalisierung queerer Stimmen im Internet?

Algorithmen sind automatisierte Befehlssätze, die helfen, Informationen zu organisieren und Entscheidungen auf der Grundlage der eingegebenen Daten zu treffen. Empfehlungssysteme verlassen sich stark auf Algorithmen und helfen Menschen, relevante und interessante Inhalte zu finden, indem sie ähnliche Videos oder Artikel basierend auf ihren vorherigen Entscheidungen anbieten. Unter Content-Moderation versteht man den Prozess, unerwünschtes Material aus sozialen Netzwerken wie YouTube, Twitter, Facebook etc. herauszufiltern.