O Facebook divulgou nessa quinta-feira 25 a remoção de 8,7 milhões de fotos de nudez infantil e contas relacionadas nos últimos três meses. Essa é a primeira vez que a empresa revela o número de conteúdos removidos por violarem as políticas de nudez infantil ou exploração sexual de crianças. Para a remoção, o Facebook contou com a ajuda de ferramentas baseadas em tecnologias como Inteligência Artificial, reconhecimento de fotos e outas que apontam automaticamente publicações desse tipo.
De acordo com a companhia, 99% das remoções aconteceram antes mesmo que alguém as denunciasse. Em entrevista à Reuters, quando questionada sobre possíveis erros que poderiam ser cometidos com um sistema de Inteligência Artificial neste processo, a diretoria de segurança do Facebook disse que prefere errar pelo lado do cuidado com as crianças.
E a ação vai continuar. Segundo a empresa, eles pretendem utilizar o mesmo tipo de tecnologia no Instagram. A empresa possui equipes especialmente treinadas com experiência prévia em aplicação da lei, segurança online, análises e investigações forenses, que analisam o conteúdo e relatam as descobertas ao Centro Nacional para Crianças Desaparecidas e Exploradas. E no mês que vem o Facebook se unirá à Microsoft e a outros parceiros do setor para começar a criar ferramentas para empresas menores a fim de prevenir o aliciamento online. (Fonte: canaltech e Facebook News Room)