Logo

ZeroOpposite

Contact Us
Search

算法抑制对色情酷儿内容和可见性的影响:系统不平等的研究 cnEN IT FR DE PL PT RU JA ES

色情酷儿内容的算法抑制是数字空间中已经存在了一段时间的现象。这适用于社交媒体平台,搜索引擎和其他在线服务使用的算法旨在识别和删除被视为明显或令人反感的内容的过程。这可能包括与性,性别认同和个人之间的亲密关系有关的图像,视频和文本,这些图像、视频和文本不符合构成"正常"关系的传统规范。尽管从道德的角度来看,这种做法似乎是一个积极的事态发展,但它实际上加剧了系统性的可见性不平等。通过限制对这些类型内容的访问,算法抑制加剧了某些群体的边缘化,并延续了社会中现有的权力结构。在这篇文章中,我探讨了色情酷儿内容的算法抑制如何再现系统可见性不平等。首先,考虑为什么首先发生算法抑制。社交媒体平台和搜索引擎在识别和删除仇恨言论、色情和暴力图像等有害内容方面变得越来越复杂。这样做是为了保护用户在使用其服务时免受潜在的创伤体验。但是,人们也担心这些公司可能会审查太多内容,尤其是在涉及性材料时。结果,它们可能会无意中沉默边缘声音,并为不同类型的表达创造不平等的竞争环境。例如,异性恋夫妇在发布Instagram照片时比同性伴侣更舒服,因为害怕报复。同样,由于算法如何感知他们的身体,变性人可能很难将他们的图像放置在约会应用程序中,而没有删除标记。其次,我们必须考虑算法抑制如何导致系统可见性不平等。通过限制某些类型的内容,平台优先考虑主流叙述,并延续有关性别和性行为的主要推理。这意味着那些不符合这些规范类别的人不太可能听到他们的声音或讲述他们的故事。这对平等和代表性产生严重影响,因为它限制了人们与具有类似利益或经验的人交往的能力。这还可以通过进一步巩固现有的偏见和偏见来加强对某些群体的负面定型观念。最后,我想探讨解决这个问题的潜在办法。平台的一个机会是为负责查看用户内容的主持人投资更好的培训和资源。可以为这些人提供更多的工具和指导,以帮助他们识别恶意或冒犯性内容,同时为各种亲密和色情表现留出空间。此外,还需要加强公司在执行其性材料政策方面的责任。他们必须对允许的内容类型以及为什么认为内容可以接受或不可接受保持透明,并在用户认为自己的帖子被不公平删除时提供明确的上诉机会。最后,对色情酷儿内容的算法抑制通过限制对各种表达形式的访问,再现了系统可见性不平等。它创造了不平等的运动场,只有少数声音被听到,并加强了社会中的主导权力结构。为了解决这个问题,平台必须投资于更好的培训和透明度,同时确保所有类型的亲密关系在其服务中得到公平代表。只有这样,我们才能在网上创造真正包容的空间,让每个人都感到被看到和欣赏。

色情酷儿内容的算法抑制如何再现系统可见性不平等?

在数字时代,我们越来越依赖算法来策划我们的在线体验。这些算法已被证明偏爱主流内容而不是利基兴趣,包括色情酷儿内容。缺乏这类内容的可见性可能会导致LGBTQ+社区成员感到孤立和疏远,他们已经在日常生活中面临歧视和边缘化。