Algoritmik bir sistem queer sesleri yükseltebilir veya bastırabilir mi? Bu soru bilgisayar bilimleri çevrelerinde yıllardır tartışılmaktadır, ancak hala net bir cevap yoktur. Bir yandan, algoritmaların LGBTQ + topluluğu gibi marjinal toplulukları tanımlamaya ve ilerletmeye yardımcı olabileceği görülüyor. Öte yandan, mevcut önyargıları güçlendirebilir ve bu gruplara karşı ayrımcılığı şiddetlendirebilirler. Algoritmalar, problemleri çözmek için tasarlanmış matematiksel formüllerdir. Verileri alırlar ve bu girdiye dayanarak sonuçlar üretirler. Son yıllarda, finans, sağlık, eğitim ve siyaset gibi alanlarda giderek daha önemli hale gelmiştir. Ancak, queer sesleri güçlendirmek veya bastırmak söz konusu olduğunda, rolleri daha karmaşık hale gelir. Queer sesleri yükseltmenin bir yolu tavsiye sistemleridir. Bu sistemler, kullanıcıların ilginç bulabileceği makaleler, videolar veya diğer ortamlar sunar. İnsanların okudukları veya izledikleri şeylerdeki kalıpları fark ederlerse, önerileri bu ilgi alanlarını yansıtacak şekilde uyarlayabilirler. Bu, başka türlü bulunması zor olabilecek sorgu odaklı içeriği içerebilir. Ancak, bu algoritmalar her zaman amaçlandığı gibi çalışmaz. Örneğin, bazı çalışmalar, önerenlerin belirli bir dili kullanmaları durumunda belirli yazarların içeriğini hariç tutabileceğini göstermiştir. Diğerleri, cisgender erkekleri hedef alan reklamlar yayınlayabilir ve bu da transseksüel kişilerin ilgili bilgileri bulmasını zorlaştırır. Ayrıca, bu sistemler cinsiyet ve cinsellik hakkındaki klişeleri sürdürebilir. Herkesin, normatif olmayan kimliklerin görünümünü sınırlayan bir erkek ve bir kadın arasındaki romantik ilişkilerin geleneksel kavramlarını görmek istediğini varsayabilirler. Benzer şekilde, tüm kadınların farklı güzellik standartlarını göz ardı ederek makyaj dersleri görmek istediklerini varsayabilirler. Bu sorunu çözmek için şirketler daha kapsayıcı algoritmalar geliştirmeye başladılar. Bazı platformlar artık içerik teklifleri oluştururken ırk, etnik köken ve engellilik gibi faktörleri göz önünde bulunduruyor. Diğerleri, kullanıcıların ID kategorilerini belirterek tercihlerini özelleştirmelerine izin verir.
Ancak, iyileştirme için hala çok yer var. Algoritmalar ayrıca garip insanları çevrimiçi olarak taciz etmede önemli bir rol oynamaktadır. Nefret söylemi, doxxing (kişisel bilgilerin kamuya açık olarak paylaşılması) ve diğer istismar biçimleri sosyal medyada yaygınlaştı. Bu platformlar genellikle potansiyel olarak rahatsız edici mesajları işaretlemek için makine öğrenme algoritmalarına güvenir. Ancak bazen zararlı kelimeleri ve eylemleri tanımazlar. Ayrıca, algoritmik sistemler LGBTQ + topluluklarına karşı ayrımcılığa dolaylı olarak katkıda bulunabilir. Örneğin, işe alım siteleri genellikle adayları pozisyon açmak için eşleştirmek için anahtar kelimeler kullanır. Bu anahtar kelimeler, ikili olmayan veya çok eşli kimliklerle ilişkili terimleri hariç tutarsa, bu önyargıya yol açabilir. Genel olarak, algoritmik sistemler queer sesleri yükseltmek veya bastırmak açısından tamamen tarafsız olamaz. Çeşitliliği destekleme potansiyeline sahip olsalar da, istenmeyen sonuçları önlemek için dikkatlice tasarlanmalı ve test edilmelidir. Geliştiriciler ve politika yapıcılar, bu araçların sorumlu ve adil bir şekilde kullanılmasını sağlamalıdır.
Queer sesleri yükseltirken veya sustururken algoritmik sistemler hiç tarafsız olabilir mi?
Queer seslerin yükselişi yıllardır devam eden bir sorundur, insanlar genellikle ayrımcılığa, önyargıya ve ana akım toplumdan dışlanmaya maruz kalmaktadır. Teknoloji bu soruna umut verici bir çözüm gibi görünse de, bunu tamamen tarafsız bir şekilde yapamayacağına inanmak için nedenler var. Algoritmik sistemler, verileri nasıl yorumladıklarını ve karar verdiklerini şekillendirebilecek kendi önyargıları ve inançları olan insanlar tarafından tasarlanmıştır.