February 12, 2024

Uma nova investigação mostra o efeito dos algoritmos no aumento dos discursos de ódio dos jovens (e não só) e sugere estratégias




Dado que, nem os jovens, nem os adultos, se dão conta do perigo das redes sociais, uma das recomendações dos investigadores é que se faça uma espécie de «Roda dos Alimentos" para uma "dieta saudável" na utilização de redes sociais: os bons alimentos, os maus alimentos, o tempo e o modo de exposição a que tipo de sites, etc., para uso dos jovens e guia de parentalidade. Muito interessante, porque torna os perigos visíveis e objectivos e aponta rumos e metas.
Claro que uma das maneiras de evitar o mal das redes sociais é expor as crianças a outros estímulos mais saudáveis (desde a leitura à vida ao ar livre, tudo o que desenvolva os interesses e o pensamento) e retardar o momento de lhes dar smartphones.

Porque é que os algoritmos das redes sociais estão por detrás do recente aumento da misoginia


Uma nova investigação confirma que estes códigos ocultos são muito mais insidiosos do que pensamos.

Vejo constantemente pessoas - incluindo políticos - queixarem-se de que o TikTok é apenas uma aplicação "cheia de raparigas adolescentes meio nuas a dançar". Bem, se é isso que vêem, há uma razão para isso e não é por a maior parte do conteúdo ser assim.

Os algoritmos das redes sociais funcionam como bibliotecários, classificando e ligando os utilizadores às suas preferências. É por isso que o meu feed é maioritariamente composto por gatos, comida, recomendações de livros, factos científicos e pessoas que discutem temas que me interessam. No entanto, ao contrário dos bibliotecários, os algoritmos não se limitam às suas preferências.

Com o tempo, começam a mostrar-lhe coisas pelas quais não manifestou interesse anteriormente. E se parecer que se interessa por elas, mesmo que de uma forma negativa, passam a ser adicionadas às suas preferências e cada vez lhe mostram mais conteúdos semelhantes.

É também assim que as pessoas - especialmente, mas não exclusivamente, os jovens - são aliciadas e radicalizadas online. Incluindo rapazes jovens, muitos dos quais foram recentemente vítimas da onda de misoginia nas redes sociais.

Um estudo recente realizado em parceria entre a UCL, a Universidade de Kent e a Association of School and College Leaders (ASCL) investigou o papel dos algoritmos das redes sociais na radicalização online, especificamente no TikTok, que continua a ser mais popular entre as gerações mais jovens. 
- Katie Jgln in  medium.com

-------

A investigação revelou, num estudo de modelação algorítmica, um aumento de quatro vezes do nível de conteúdo misógino na página For You das contas TikTok em apenas cinco dias na plataforma.

A investigadora principal, Dra. Kaitlyn Regehr (UCL Information Studies), afirmou: "Os processos algorítmicos no TikTok e outros sites de redes sociais têm como alvo as vulnerabilidades das pessoas - como a solidão ou sentimentos de ausência de controlo - e «gamificam» conteúdos nocivos. [apresentam-nos como um jogo]. Quando os jovens se alimentam, em micro-doses, de temas como a auto-mutilação ou o extremismo, parece-lhes um jogo, um entretenimento.

"Os pontos de vista e os estereótipos nocivos estão a normalizar-se entre os jovens. O consumo online está a ter impacto nos comportamentos offline dos jovens, à medida que vemos estas ideologias saírem dos ecrãs e a entrarem nos pátios das escolas.

"Além disso, os adultos muitas vezes não sabem como funcionam os processos algorítmicos nocivos, ou mesmo como podem alimentar os seus próprios vícios nas redes sociais, o que dificulta a parentalidade em torno destas questões."

Os investigadores começaram o estudo por entrevistar jovens que se envolvem e produzem conteúdos radicais online. Este trabalho serviu de base ao estudo algorítmico para a criação de arquétipos, que representam tipologias de rapazes adolescentes que podem ser vulneráveis à radicalização através de conteúdos online

Os investigadores criaram contas no TikTok para cada arquétipo, com interesses de conteúdo distintos típicos desses arquétipos (por exemplo, procurar conteúdo sobre masculinidade ou abordar a solidão) e utilizaram essas contas para ver vídeos que o TikTok sugeriu na sua página For You, durante um período de sete dias.

O conteúdo inicial sugerido estava de acordo com os interesses declarados de cada arquétipo; por exemplo, com material que explorava temas de solidão ou de auto-aperfeiçoamento, mas depois foi-se desviando cada vez mais para a raiva e culpa dirigidas às mulheres. Ao fim de cinco dias, o algoritmo do TikTok apresentava quatro vezes mais vídeos com conteúdo misógino, como a objectificação, o assédio sexual ou o descrédito das mulheres (passando de 13% dos vídeos recomendados para 56%).

A equipa de investigação conduziu mesas redondas e entrevistas com dirigentes escolares, que atestaram que os estereótipos misóginos estão a normalizar-se também na forma como os jovens interagem pessoalmente.

Os investigadores apresentaram as seguintes recomendações:

1. Responsabilizar as empresas de redes sociais e pressioná-las para que abordem os danos causados pelos seus algoritmos e dêem prioridade ao bem-estar dos jovens em detrimento do lucro.

2. Implementar uma educação para uma "dieta digital saudável", que considere os diferentes tipos de tempo de ecrã e de conteúdos digitais com que os jovens se envolvem, à semelhança dos diferentes grupos de alimentos, tendo em conta a quantidade que é consumida, a forma como pode tornar-se "ultra-processada" devido aos algoritmos e os potenciais impactos na saúde mental e física.

3. Tutoria entre pares, capacitando os alunos mais velhos para trabalharem com os mais novos e ajudando a envolver os rapazes em debates sobre misoginia.

4. Promover uma maior consciencialização dos processos algorítmicos entre os pais e a comunidade em geral.

Os investigadores afirmam que a sua investigação pode aplicar-se de forma semelhante a outras plataformas de redes sociais, apoiada pela investigação de outros grupos sobre o Instagram e o YouTube, por exemplo, enquanto os algoritmos das redes sociais podem também favorecer outros tipos de conteúdos nocivos, como material de auto-mutilação ou ideologias extremas. 

Investigações anteriores realizadas pela Dr.ª Regehr e colegas da UCL revelaram que a violência sexual online é experimentada habitualmente por mulheres e raparigas, tendo aumentado ainda mais nos últimos anos. Este trabalho contribuiu para a nova legislação sobre flashes digitais em 2022.
As conclusões da UCL mostram que os algoritmos - sobre os quais a maioria de nós pouco sabe - têm um efeito de bola de neve em que fornecem conteúdos cada vez mais extremos sob a forma de mero entretenimento. Isto é profundamente preocupante em geral, mas particularmente no que diz respeito à amplificação de mensagens em torno da masculinidade tóxica e ao seu impacto nos jovens que precisam de poder crescer e desenvolver a sua compreensão do mundo sem serem influenciados por material tão terrível.

Congratulamo-nos com o apelo para envolver os jovens, em particular os rapazes, na conversa para combater este problema, juntamente com os seus pares e famílias. Apelamos às plataformas de redes sociais em geral, mas ao TikTok em particular, para que revejam urgentemente os seus algoritmos e reforcem as salvaguardas para evitar este tipo de conteúdo, E apelamos ao governo e à Ofcom para que considerem as implicações desta questão sob os auspícios da nova Lei da Segurança Online. É tempo de agir e não de continuar a falar de acção.

   - Geoff Barton, Secretário-Geral da Associação de Directores de Escolas e Colégios 



No comments:

Post a Comment