Aumentando a segurança no Discord
A plataforma Discord anunciou uma série de novas medidas de segurança que entrarão em vigor a partir do início de março. Essas alterações visam proteger usuários adolescentes, com foco em criar um ambiente mais seguro e controlado. Entre as principais mudanças estão o aumento das ferramentas de segurança, ajustes nas configurações de comunicação e áreas com acesso restrito, além de uma maior preservação da privacidade dos usuários. A verificação de idade também será realizada através de foto, entre outras iniciativas.
Verificação de idade e ajustes para adolescentes
Com as novas regras, adolescentes com mais de 13 anos, tanto novos usuários quanto aqueles já cadastrados na plataforma, terão que comprovar sua idade para acessar determinadas áreas e modificar configurações em suas contas. O sistema do Discord será capaz de identificar usuários adultos, evitando a necessidade de reafirmar a idade sempre que entrarem na plataforma. Essa mudança é um passo importante para garantir que os adolescentes tenham uma experiência mais segura ao utilizar o serviço.
Os menores de idade poderão escolher entre diferentes métodos de verificação. Uma opção é a identificação facial por meio de foto, enquanto outra alternativa é o envio de um documento que comprove sua idade. Após a utilização, esse documento será descartado, assegurando a proteção das informações pessoais do usuário. Quando um adolescente concluir a verificação etária, o Discord ajustará automaticamente os conteúdos que ele pode acessar, de acordo com sua idade.
Conselho de Adolescentes e contexto das mudanças
Além das novas regras, o Discord também anunciou a criação do Conselho de Adolescentes, que será composto por 10 a 12 jovens. O objetivo desse órgão é permitir que os adolescentes tenham uma voz ativa nas decisões da plataforma, opinar e sugerir ações futuras que possam melhorar a experiência dos usuários mais jovens.
Essas mudanças no Discord se inserem em um contexto mais amplo, onde diversas plataformas estão adotando medidas adicionais de segurança para crianças e adolescentes. Recentemente, o YouTube anunciou a utilização de inteligência artificial para identificar usuários menores de idade em países como Brasil e Austrália, enquanto o Roblox, uma popular plataforma de jogos online, implementou novas regras que exigem a comprovação de idade para participar de chats. Essas iniciativas têm gerado debates significativos sobre a segurança da juventude nas redes sociais.
Em um cenário global, a segurança de crianças e adolescentes nas redes sociais tem sido uma preocupação crescente. Em dezembro, a Austrália proibiu o uso de redes sociais por menores de 16 anos, e a Nova Zelândia está considerando medidas semelhantes. Países como França, Dinamarca, Noruega e Espanha também têm implementado restrições ao uso dessas plataformas por essa faixa etária.
No Brasil, embora não haja previsão de proibição do uso de redes sociais, o Estatuto Digital da Criança e do Adolescente (ECA Digital) estabelece que tanto lojas de aplicativos quanto plataformas online devem se responsabilizar pela segurança dos menores de idade. Assim, as iniciativas do Discord podem ser vistas como parte de um movimento mais amplo para criar um ambiente digital mais seguro para todos os usuários, especialmente aqueles que ainda estão em fase de desenvolvimento e aprendizado.