Seleccionar página

Fuente: Ron Lach/Pexels

Durante más de una década, los investigadores psicológicos han estudiado si el contenido de las redes sociales podría presentar riesgos para la salud mental y en qué medida.

En respuesta a las preocupaciones de que parte de su contenido estaba poniendo a los jóvenes en riesgo de autolesionarse más, en 2019, Instagram describió cambios importantes en la moderación de su contenido. Específicamente, Instagram anunció que ya no permitiría «imágenes gráficas de autolesiones» (como cortes). El contenido de autolesiones no gráfico (como cicatrices curadas) aún estaría permitido, pero Instagram ya no mostraría este contenido a través de búsquedas, etiquetas, funciones de exploración o recomendaciones. Instagram también agregó lo que llama «pantallas de contenido sensible».

Estas pantallas hacen que las imágenes sean borrosas y muestran una advertencia: «Contenido sensible: esta foto puede contener contenido gráfico o violento». El usuario puede optar por revelar el contenido si así lo desea. Aunque Instagram argumentó que estas pantallas fueron diseñadas para proteger el bienestar de los usuarios vulnerables, un nuevo par de estudios sugiere que las pantallas hacen poco para desalentar la exposición a contenido gráfico o perturbador, tal vez porque hacen que los usuarios sientan curiosidad por ver qué esconden las pantallas. .

Agregar pantallas de contenido confidencial aparentemente puede proteger a los usuarios de ser sorprendidos por contenido perturbador mientras se desplazan por sus feeds. Pero los autores de esta nueva investigación, publicada en Clinical Psychological Science, señalaron que ninguna investigación empírica ha probado realmente si estas pantallas tienen beneficios para aquellos que podrían verse más afectados negativamente por contenido gráfico o perturbador.

Hay dos razones principales para pensar que es poco probable que las pantallas de contenido confidencial sean efectivas para reducir la exposición a contenido perturbador. El primero se llama el “efecto de la fruta prohibida”. Cuando sientes que te quitan o restringen tu libertad para acceder a algo, a menudo te hace querer más esa cosa. Básicamente, nuestra respuesta cuando nos dicen que no podemos tener algo es a menudo insistir en que debemos tenerlo. Si las pantallas de contenido confidencial nos hacen sentir que estamos restringidos de ciertos tipos de contenido de redes sociales, eso podría aumentar el interés en ese contenido.

Los usuarios de las redes sociales también pueden ser vulnerables a lo que los investigadores llaman el “efecto Pandora”. Cuando tenemos incertidumbre sobre lo que es probable que encontremos, a menudo nos esforzamos aún más por encontrarlo, incluso si sospechamos que podría ser negativo. El efecto Pandora conduce a una especie de curiosidad morbosa. Cuando Instagram desenfoca el contenido y te dice que el contenido puede ser sensible, eso puede aumentar tu deseo de verlo. Esto es especialmente probable dado que las pantallas de contenido confidencial no le dicen por qué el contenido se desdibujó. En lugar de disuadirlo de hacer clic, no saber qué hay detrás de la pantalla puede despertar su curiosidad y hacer que sea más probable que haga clic.

Los autores de esta nueva investigación realizaron dos estudios para probar cómo reaccionan los usuarios de Instagram a las pantallas de contenido sensible. Ambos estudios se registraron previamente, lo cual es una forma de que los científicos aumenten la confiabilidad de los resultados de sus investigaciones. En el primer estudio, 260 residentes de EE. UU. entre 20 y 71 años (todos los cuales usaban Instagram) completaron una encuesta sobre su uso de Instagram junto con una variedad de medidas de salud mental.

A los participantes se les mostró una muestra de una pantalla de contenido confidencial de Instagram y se les preguntó lo siguiente: “Imagínese que se está desplazando (es decir, navegando) a través de las publicaciones de Instagram y se encuentra con la siguiente imagen. ¿Harías clic para descubrir esta imagen?” Los participantes calificaron la probabilidad de que descubrieran la imagen en una escala de seis puntos que va desde definitivamente no hasta definitivamente sí. Si los participantes indicaron que se habían encontrado con pantallas de contenido sensible similares en Instagram en el pasado, se les preguntó si normalmente descubren las imágenes bloqueadas por estas pantallas.

Los resultados fueron abrumadoramente claros. Los participantes mostraron una preferencia por descubrir contenido sensible borroso, con un 80 por ciento cayendo en el lado «descubrir» de la escala de respuesta. Aquellos que habían visto pantallas de contenido confidencial en Instagram informaron que casi siempre descubrían las imágenes borrosas que encontraban.

Finalmente, poco más de la mitad de los participantes dijeron que se desharían por completo de estas pantallas de contenido confidencial si pudieran (lo que significa que ningún contenido potencialmente perturbador se vería borroso). Los participantes que experimentaban niveles más altos de depresión y estrés tenían más probabilidades de decir que descubrirían tales imágenes, mientras que los participantes que obtuvieron una puntuación más alta en una medida de bienestar general dijeron que sería menos probable que descubrieran tales imágenes, aunque estos efectos fueron pequeños.

Bridgeland et al.  (2022), usado con permiso

Fuente: Bridgland et al. (2022), usado con permiso

En un segundo estudio que utilizó una muestra similar de encuestados, los participantes completaron una tarea simulada de Instagram. Los investigadores compilaron un conjunto de fotos neutrales y positivas y colocaron cada una en un marco de Instagram, de modo que parecieran publicaciones reales de Instagram.

Los participantes tenían que presionar el botón «siguiente» para ver la siguiente imagen. Cuando los participantes llegaban a una imagen que estaba borrosa por una pantalla de contenido confidencial, podían elegir «descubrir foto» o simplemente pasar a la siguiente foto y omitir el contenido potencialmente perturbador. (En realidad, a ningún participante se le mostró contenido confidencial; la tarea terminó después de que eligieron si descubrir la imagen).

De manera similar a los hallazgos del primer estudio, el 85 por ciento de los participantes intentaron descubrir la imagen sensible. En las preguntas de seguimiento, este grupo de participantes también dijo que casi siempre descubren contenido cuando se encuentran con estas pantallas en Instagram.

En el Estudio 2, los investigadores no encontraron vínculos entre la salud mental de los participantes y su probabilidad de descubrir imágenes sensibles. Eso puede sonar como una buena noticia, pero todavía significa que no había evidencia de que los usuarios de redes sociales más vulnerables pudieran beneficiarse más de las pantallas de contenido sensible. En el mejor de los casos, estos usuarios tenían la misma probabilidad que otros de elegir descubrir contenido potencialmente perturbador.

En general, los hallazgos de esta investigación están en línea con otros estudios que sugieren que cuando advierte a las personas sobre contenido confidencial, dichas advertencias pueden resultar contraproducentes. Por ejemplo, en un esfuerzo por reducir el impacto negativo de algunas imágenes de los medios en la imagen corporal de las mujeres, los anuncios pueden presentar advertencias cuando se retoca el cuerpo de una modelo. Pero la investigación muestra que estas advertencias a menudo hacen que las mujeres se centren más en los cuerpos de las modelos, tal vez porque están tratando de determinar dónde se retocaron las modelos. Del mismo modo, numerosos estudios de «advertencias desencadenantes» encuentran que estas advertencias en realidad pueden aumentar la ansiedad y convencer a las personas de que el material que están a punto de encontrar es más dañino de lo que hubiera sido de otra manera.

¿Hay alguna manera de marcar el contenido potencialmente perturbador de las redes sociales sin que las personas sientan más curiosidad por verlo? Quizás algún día, los investigadores descubran tal técnica, pero trabajarán duro contra el fuerte deseo de los humanos de ver las cosas que nos dicen que podrían dañarnos.

Tecnología Geri/Pexels

Fuente: Geri Tech/Pexels

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información

ACEPTAR
Aviso de cookies