O Instagram anunciou nesta quinta-feira (14) que passará a notificar pais e responsáveis sempre que adolescentes fizerem buscas “repetidas” por conteúdos ligados a suicídio e automutilação. A novidade integra o pacote de supervisão parental da rede social e chega ao Brasil na próxima semana, além de Índia e União Europeia, segundo a Meta, dona da plataforma.
A empresa explica que a “grande maioria dos adolescentes” não realiza esse tipo de pesquisa. Quando um jovem o faz, a plataforma bloqueia o acesso e o direciona para canais de apoio especializados. A Meta criou os alertas justamente para que os responsáveis tomem conhecimento dessas buscas.
O aviso chegará por e‑mail, SMS ou WhatsApp, conforme os dados de contato registrados, e também aparecerá no próprio aplicativo do Instagram. A função já operava nos Estados Unidos, Reino Unido, Canadá e Austrália.
Na semana passada, a Meta também revelou que usará inteligência artificial para analisar imagens dos usuários do Instagram e do Facebook e verificar se são menores de 13 anos. A tecnologia examinará características como altura e estrutura óssea para identificar contas de crianças.
Segundo a empresa, o sistema não fará reconhecimento facial; diferentemente de outras redes sociais, que adotaram selfies ou documentos de identidade em meio à pressão por medidas que reforcem a segurança de crianças e adolescentes online.
