Os sistemas de recomendação de IA nas plataformas sociais estão a tornar-se cada vez mais populares entre os usuários LGBT que procuram entrar em contato com outros que compartilham interesses e experiências semelhantes.
No entanto, estes sistemas também apresentam problemas significativos para os esforços para criar uma comunidade devido à sua tendência a aumentar as câmaras de eco discriminatórias que marginalizam vozes estranhas. Os usuários do Queer podem enfrentar conteúdos homofóbicos e transfóbicos que normalizam os preconceitos contra eles ao mesmo tempo que recebem recomendações sobre conteúdos que não são relevantes ou imprecisos em relação à sua experiência de vida. Isso pode levar a uma sensação de isolamento, frustração e frustração em comunidades online.
Uma solução potencial é a transparência algoritmica, que inclui dar aos usuários acesso aos dados e algoritmos usados para fazer recomendações. Ao perceber como estes sistemas funcionam, os usuários podem controlar melhor o funcionamento da Internet e adaptá-lo melhor às suas necessidades.
Além disso, uma maior transparência pode ajudar a identificar erros no próprio sistema e incentivar alterações necessárias para corrigi-los.
Por exemplo, se os usuários receberem orientações constantes sobre o conteúdo de relações heteronormativas, isso pode indicar a necessidade de ajustar os parâmetros do algoritmo.
No entanto, a implementação da transparência algoritmica não está sem problemas próprios. Embora isso permitiria que os usuários pudessem estar mais presentes na Internet, também exigiria um grande esforço e recursos das empresas de redes sociais. Além disso, essa transparência pode ser feita através da privacidade dos usuários, porque os usuários podem não querer fornecer informações pessoais que podem ser usadas por terceiros para direcionar publicidade ou manipular a opinião pública.
Para terminar, os sistemas de recomendação de IA nas plataformas sociais têm um papel importante no fortalecimento das vozes queer ou no fortalecimento das câmaras de eco discriminatórias. A transparência algoritmica pode melhorar os resultados para os usuários LGBT, permitindo que eles controlem suas experiências online ao mesmo tempo que responsabilizam as empresas de redes sociais por qualquer preconceito em suas recomendações.
Em última análise, o equilíbrio entre a privacidade dos usuários, os esforços para criar uma comunidade e a representação precisa dependerá dos esforços coletivos dos usuários, empresas de redes sociais e políticos.