O Instagram, da Meta, vai começar a notificar pais que usam a supervisão parental quando um adolescente fizer repetidas pesquisas relacionadas com suicídio ou autolesão. A funcionalidade entra em funcionamento nas próximas semanas e pretende sinalizar situações de risco para que a família possa intervir mais cedo.
Os alertas chegam por e-mail, SMS ou WhatsApp (conforme os contactos fornecidos) e também por notificação dentro da aplicação, acompanhados de recursos para orientar a conversa entre pais e filhos.
O que aconteceu
A Meta diz que já bloqueia resultados associados a conteúdo de suicídio e autolesão no Instagram. Ainda assim, a empresa decidiu criar avisos adicionais quando um adolescente insiste em procurar, várias vezes num curto espaço de tempo, termos ligados a autoagressão — incluindo palavras como “suicídio” e “autolesão”.
Segundo a plataforma, o sistema foi definido com base na análise de padrões de pesquisa e em aconselhamento do seu grupo consultivo sobre suicídio e autolesão. A Meta admite a possibilidade de falsos positivos, mas afirma que estabeleceu um “limite” para evitar alertas excessivos e reduzir ruído.
Porque importa
Este tipo de pesquisa repetida é um sinal de alerta que, na maioria dos casos, fica invisível para a família — especialmente quando o adolescente mantém o telemóvel como espaço privado. Ao criar notificações automáticas, o Instagram tenta encurtar o tempo entre o “sinal” e o apoio, num momento em que muitas intervenções falham por chegarem tarde.
A medida também surge sob forte pressão pública e jurídica. A Meta enfrenta processos e críticas por alegada falha na proteção de menores, e o próprio Instagram tem sido chamado a explicar atrasos na implementação de funcionalidades de segurança para adolescentes.
O que pode acontecer a seguir
O lançamento começa nos EUA, Reino Unido, Austrália e Canadá na próxima semana, com expansão para outras regiões ao longo do ano. A Meta também diz que planeia, no futuro, enviar alertas semelhantes quando um adolescente tentar envolver a IA da aplicação em conversas relacionadas com suicídio ou autolesão.
Se a funcionalidade for bem recebida, é provável que a empresa endureça o ecossistema de supervisão parental com mais sinais automáticos de risco — o que pode aumentar a proteção, mas também intensificar o debate sobre privacidade e monitorização dentro da família.
