{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2024/04/25/tiktok-y-youtube-shorts-difunden-videos-misoginos-entre-los-jovenes-segun-un-estudio" }, "headline": "TikTok y YouTube Shorts difunden v\u00eddeos mis\u00f3ginos entre los j\u00f3venes, seg\u00fan un estudio", "description": "Un nuevo estudio analiz\u00f3 cu\u00e1nto tiempo tardaban TikTok y YouTube Shorts en recomendar contenidos mis\u00f3ginos a las cuentas de hombres j\u00f3venes.", "articleBody": "Seg\u00fan un nuevo estudio, para que TikTok y YouTube Shorts recomienden contenidos t\u00f3xicos o mis\u00f3ginos a las cuentas de hombres j\u00f3venes se necesitan de media entre 23 y 26 minutos de visionado de v\u00eddeos. El estudio de la Dublin City University\u00a0ha realizado un seguimiento de los contenidos recomendados a 10 cuentas 't\u00edteres' de TikTok y YouTube Short creadas por los investigadores en 'smartphones' nuevos. Todas las cuentas estaban dirigidas a mostrar los intereses de b\u00fasqueda de chicos de 16 y 18 a\u00f1os , ya fuera con contenidos habituales, como deportes o videojuegos, o para replicar a los que buscan a prop\u00f3sito contenidos mis\u00f3ginos online. La investigaci\u00f3n descubri\u00f3 que se necesitaban aproximadamente 23 minutos de visionado de v\u00eddeos tanto en TikTok como en YouTube Shorts para que los algoritmos empezaran a recomendar contenido \u0022t\u00f3xico\u0022 y 26 minutos para recomendar contenido 'manfluencer' ('influencer' masculino) en las diferentes cuentas. Los v\u00eddeos recomendados a veces pod\u00edan llegar tan pronto como despu\u00e9s de dos minutos de visualizaci\u00f3n en YouTube Shorts y 10 minutos en TikTok para las cuentas que mostraban cierto inter\u00e9s en aprender m\u00e1s sobre 'manfluencers'. Se trata de v\u00eddeos que son ampliamente considerados como promotores de ideas\u00a0antifeministas y propias de una concepci\u00f3n t\u00f3xica de la masculinidad. \u0022Las conclusiones de este informe apuntan a cuestiones urgentes y preocupantes para padres, profesores, responsables pol\u00edticos y la sociedad en su conjunto\u0022, se lee en el informe. Monetizaci\u00f3n de la inseguridad masculina y falta de transparencia sobre los algoritmos Los investigadores vieron casi 29 horas de v\u00eddeo en las 10 cuentas para analizar el contenido de los v\u00eddeos que se recomendaban. Seg\u00fan los investigadores, la gran mayor\u00eda de los contenidos que se suger\u00edan despu\u00e9s de dos o tres horas, o 400 visionados de v\u00eddeo, eran problem\u00e1ticos o t\u00f3xicos .\u00a0Una vez que un v\u00eddeo de un 'manfluencer' era recomendado y visto por la cuenta de un joven, se volv\u00eda mucho m\u00e1s probable que fuera recomendado. El informe identific\u00f3 tres temas principales de estos v\u00eddeos de 'manfluencers': narrativas de crisis , como que la masculinidad y la \u0022familia nuclear\u0022 est\u00e1n amenazadas; v\u00eddeos motivacionales que convencen a los hombres de que sentir emociones o depresi\u00f3n puede ser castrante; o v\u00eddeos de supuesta ciencia \u00a0sobre g\u00e9nero que muestran conceptos de la psicolog\u00eda evolutiva de que los hombres y las mujeres est\u00e1n \u0022programados\u0022 para diferentes roles. El estudio sugiere que tambi\u00e9n existe un v\u00ednculo entre los v\u00eddeos de 'manfluencer' y los contenidos conspirativos de derechas : El 13% de todo el contenido recomendado en TikTok y el 5% en YouTube para estas cuentas inclu\u00eda estos conceptos. \u0022Esta monetizaci\u00f3n de la inseguridad masculina no solo sirve para generalizar la ideolog\u00eda antifeminista y anti-LGBTQ, sino que tambi\u00e9n puede funcionar como puerta de entrada a la extrema derecha marginal y otras visiones extremas del mundo\u0022, se lee en el informe. Una de las limitaciones del estudio es la falta de transparencia de las empresas de redes sociales sobre el funcionamiento de sus algoritmos .\u00a0Esto significa que no se dispone de informaci\u00f3n esencial sobre c\u00f3mo las plataformas elaboran sugerencias de contenidos personalizados bas\u00e1ndose en el historial de visitas. TikTok replica que el estudio no \u0022refleja\u0022 la experiencia de los s YouTube Shorts fue la plataforma que promocion\u00f3 la mayor cantidad de \u0022contenido t\u00f3xico\u0022, alrededor del 61% en comparaci\u00f3n con el 34% de las recomendaciones de TikTok.\u00a0La plataforma tambi\u00e9n proporcion\u00f3 m\u00e1s contenido t\u00f3xico a las cuentas interesadas en 'manfluencer' que a las que buscaban temas \u0022gen\u00e9ricos\u0022.\u00a0YouTube no respondi\u00f3 a la solicitud de comentarios. TikTok dijo en un comunicado enviado por correo electr\u00f3nico que el informe de la Dublin City University no refleja c\u00f3mo su base de s experimentar\u00eda los v\u00eddeos en su plataforma. El comunicado tambi\u00e9n se\u00f1ala que el tama\u00f1o de la muestra en el estudio es extremadamente limitado, tanto en el n\u00famero de cuentas utilizadas como en la cantidad de v\u00eddeos vistos.\u00a0TikTok tambi\u00e9n dice que no permiten el discurso de odio o el discurso de odio, como la misoginia y la transfobia en su plataforma y eliminan el contenido que viola sus directrices de la comunidad. \u0022Si tenemos conocimiento de que alg\u00fan actor de este tipo puede estar en nuestra plataforma, llevaremos a cabo una revisi\u00f3n exhaustiva (incluido el comportamiento fuera de la plataforma) que puede dar lugar a la prohibici\u00f3n de la cuenta\u0022, se lee en la p\u00e1gina web de las directrices de la comunidad de TikTok. La empresa dice que hace lo mismo con sus v\u00eddeos recomendados en la secci\u00f3n \u0022 Para ti \u0022, donde el sistema de recomendaciones sustituye contenidos menos similares en la secci\u00f3n de una persona si considera que dos v\u00eddeos son demasiado parecidos. Los s tambi\u00e9n pueden controlar lo que ven se\u00f1alando que un tipo de v\u00eddeo no les interesa, refrescando sus feeds o filtrando determinadas palabras clave. TikTok est\u00e1 siendo objeto de dos investigaciones en virtud de la Ley de Servicios Digitales de la UE sobre \u0022protecci\u00f3n de menores\u0022 y \u0022dise\u00f1o adictivo\u0022 por el nuevo TikTok Lite de la plataforma, lanzado recientemente en Francia y Espa\u00f1a. El pasado noviembre, la Comisi\u00f3n Europea pidi\u00f3 a YouTube que informara sobre c\u00f3mo protege a los menores online con arreglo a la nueva Ley de Servicios Digitales. Moderaci\u00f3n de contenidos basada en cuentas El informe destaca algunas recomendaciones clave para las escuelas, los padres y las empresas de medios sociales. Sugiere que las empresas de redes sociales no solo moderen los contenidos en funci\u00f3n de los v\u00eddeos, sino que tambi\u00e9n regulen qu\u00e9 cuentas pueden publicar . Irlanda cuenta con un nuevo regulador de los medios de comunicaci\u00f3n, el 'Coimisi\u00fan na Me\u00e1n', con el que el informe sugiere que colaboren las empresas de redes sociales para \u0022poner de relieve los contenidos ilegales, nocivos y fronterizos\u0022. Para las escuelas , el informe sugiere que se d\u00e9 prioridad a la promoci\u00f3n de modelos masculinos positivos en las aulas como forma de \u0022promover una respuesta educativa en lugar de punitiva a los comportamientos de los chicos\u0022. Tambi\u00e9n sugiere que las escuelas se centren en fomentar las competencias digitales cr\u00edticas . Los padres tambi\u00e9n podr\u00edan entablar conversaciones con sus hijos adolescentes para entender por qu\u00e9 idealizan a determinadas personas influyentes y animarles a \u0022comprometerse con recursos afines\u0022.\u00a0TikTok afirma en su comunicado que dispone de recursos para ayudar a los padres en estas conversaciones. ", "dateCreated": "2024-04-23T16:57:23+02:00", "dateModified": "2024-04-25T15:51:24+02:00", "datePublished": "2024-04-25T14:23:57+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F39%2F33%2F00%2F1440x810_cmsv2_2a28df8a-2adb-5a0d-ad98-2638f8b7e840-8393300.jpg", "width": 1440, "height": 810, "caption": "ARCHIVO - Logotipo de TikTok en un tel\u00e9fono (izquierda); aplicaci\u00f3n de YouTube (derecha).", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F39%2F33%2F00%2F432x243_cmsv2_2a28df8a-2adb-5a0d-ad98-2638f8b7e840-8393300.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Desmarais", "givenName": "Anna", "name": "Anna Desmarais", "url": "/perfiles/2860", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/anna_desmarais", "jobTitle": "Journaliste Producer", "memberOf": { "@type": "Organization", "name": "Equipe de langue anglaise" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia", "Noticias de Europa" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

TikTok y YouTube Shorts difunden vídeos misóginos entre los jóvenes, según un estudio

ARCHIVO - Logotipo de TikTok en un teléfono (izquierda); aplicación de YouTube (derecha).
ARCHIVO - Logotipo de TikTok en un teléfono (izquierda); aplicación de YouTube (derecha). Derechos de autor AP Photo/Michael Dwyer (left); AP Photo/Patrick Semansky (right)
Derechos de autor AP Photo/Michael Dwyer (left); AP Photo/Patrick Semansky (right)
Por Anna Desmarais
Publicado Ultima actualización
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Un nuevo estudio analizó cuánto tiempo tardaban TikTok y YouTube Shorts en recomendar contenidos misóginos a las cuentas de hombres jóvenes.

PUBLICIDAD

Según un nuevo estudio, para que TikTok y YouTube Shorts recomienden contenidos tóxicos o misóginos a las cuentas de hombres jóvenes se necesitan de media entre 23 y 26 minutos de visionado de vídeos.

El estudio de la Dublin City University ha realizado un seguimiento de los contenidos recomendados a 10 cuentas 'títeres' de TikTok y YouTube Short creadas por los investigadores en 'smartphones' nuevos.

Todas las cuentas estaban dirigidas a mostrar los intereses de búsqueda de chicos de 16 y 18 años, ya fuera con contenidos habituales, como deportes o videojuegos, o para replicar a los que buscan a propósito contenidos misóginos online.

La investigación descubrió que se necesitaban aproximadamente 23 minutos de visionado de vídeos tanto en TikTok como en YouTube Shorts para que los algoritmos empezaran a recomendar contenido "tóxico" y 26 minutos para recomendar contenido 'manfluencer' ('influencer' masculino) en las diferentes cuentas.

Los vídeos recomendados a veces podían llegar tan pronto como después de dos minutos de visualización en YouTube Shorts y 10 minutos en TikTok para las cuentas que mostraban cierto interés en aprender más sobre 'manfluencers'. Se trata de vídeos que son ampliamente considerados como promotores de ideas antifeministas y propias de una concepción tóxica de la masculinidad.

"Las conclusiones de este informe apuntan a cuestiones urgentes y preocupantes para padres, profesores, responsables políticos y la sociedad en su conjunto", se lee en el informe.

Monetización de la inseguridad masculina y falta de transparencia sobre los algoritmos

Los investigadores vieron casi 29 horas de vídeo en las 10 cuentas para analizar el contenido de los vídeos que se recomendaban.

Según los investigadores, la gran mayoría de los contenidos que se sugerían después de dos o tres horas, o 400 visionados de vídeo, eran problemáticoso tóxicos. Una vez que un vídeo de un 'manfluencer' era recomendado y visto por la cuenta de un joven, se volvía mucho más probable que fuera recomendado.

El informe identificó tres temas principales de estos vídeos de 'manfluencers': narrativas de crisis, como que la masculinidad y la "familia nuclear" están amenazadas; vídeos motivacionales que convencen a los hombres de que sentir emociones o depresión puede ser castrante; o vídeos de supuesta ciencia sobre género que muestran conceptos de la psicología evolutiva de que los hombres y las mujeres están "programados" para diferentes roles.

El estudio sugiere que también existe un vínculo entre los vídeos de 'manfluencer' y los contenidos conspirativos de derechas: El 13% de todo el contenido recomendado en TikTok y el 5% en YouTube para estas cuentas incluía estos conceptos.

"Esta monetización de la inseguridad masculina no solo sirve para generalizar la ideología antifeminista y anti-LGBTQ, sino que también puede funcionar como puerta de entrada a la extrema derecha marginal y otras visiones extremas del mundo", se lee en el informe.

Una de las limitaciones del estudio es la falta de transparencia de las empresas de redes sociales sobre el funcionamiento de sus algoritmos. Esto significa que no se dispone de información esencial sobre cómo las plataformas elaboran sugerencias de contenidos personalizados basándose en el historial de visitas.

TikTok replica que el estudio no "refleja" la experiencia de los s

YouTube Shorts fue la plataforma que promocionó la mayor cantidad de "contenido tóxico", alrededor del 61% en comparación con el 34% de las recomendaciones de TikTok. La plataforma también proporcionó más contenido tóxico a las cuentas interesadas en 'manfluencer' que a las que buscaban temas "genéricos". YouTube no respondió a la solicitud de comentarios.

TikTok dijo en un comunicado enviado por correo electrónico que el informe de la Dublin City University no refleja cómo su base de s experimentaría los vídeos en su plataforma. El comunicado también señala que el tamaño de la muestra en el estudio es extremadamente limitado, tanto en el número de cuentas utilizadas como en la cantidad de vídeos vistos. TikTok también dice que no permiten el discurso de odio o el discurso de odio, como la misoginia y la transfobia en su plataforma y eliminan el contenido que viola sus directrices de la comunidad.

"Si tenemos conocimiento de que algún actor de este tipo puede estar en nuestra plataforma, llevaremos a cabo una revisión exhaustiva (incluido el comportamiento fuera de la plataforma) que puede dar lugar a la prohibición de la cuenta", se lee en la página web de las directrices de la comunidad de TikTok.

La empresa dice que hace lo mismo con sus vídeos recomendados en la sección "Para ti", donde el sistema de recomendaciones sustituye contenidos menos similares en la sección de una persona si considera que dos vídeos son demasiado parecidos.

Los s también pueden controlar lo que ven señalando que un tipo de vídeo no les interesa, refrescando sus feeds o filtrando determinadas palabras clave.

TikTok está siendo objeto de dos investigaciones en virtud de la Ley de Servicios Digitales de la UE sobre "protección de menores" y "diseño adictivo" por el nuevo TikTok Lite de la plataforma, lanzado recientemente en Francia y España.

El pasado noviembre, la Comisión Europea pidió a YouTube que informara sobre cómo protege a los menores online con arreglo a la nueva Ley de Servicios Digitales.

Moderación de contenidos basada en cuentas

El informe destaca algunas recomendaciones clave para las escuelas, los padres y las empresas de medios sociales.

Sugiere que las empresas de redes sociales no solo moderen los contenidos en función de los vídeos, sino que también regulen qué cuentas pueden publicar.

Irlanda cuenta con un nuevo regulador de los medios de comunicación, el 'Coimisiún na Meán', con el que el informe sugiere que colaboren las empresas de redes sociales para "poner de relieve los contenidos ilegales, nocivos y fronterizos".

Para las escuelas, el informe sugiere que se dé prioridad a la promoción de modelos masculinos positivos en las aulas como forma de "promover una respuesta educativa en lugar de punitiva a los comportamientos de los chicos". También sugiere que las escuelas se centren en fomentar las competencias digitales críticas.

Los padres también podrían entablar conversaciones con sus hijos adolescentes para entender por qué idealizan a determinadas personas influyentes y animarles a "comprometerse con recursos afines". TikTok afirma en su comunicado que dispone de recursos para ayudar a los padres en estas conversaciones.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

Macron quiere restringir las redes sociales a los menores de 15 años en toda Europa

Los líderes tecnológicos del mañana, protagonistas del Premio Jóvenes Inventores 2025

Meta se convierte en el último gigante tecnológico en recurrir a la energía nuclear para alimentar la IA