menu
Logo TecMundo
Segurança

YouTube vai usar pessoas para ajudar IA a filtrar conteúdo infantil nocivo

Após os problemas com o acesso de crianças a vídeos com conteúdo adulto, a plataforma vai fechar o cerco e colocar segurança máxima na hora de identificar materiais impróprios

Avatar do(a) autor(a): Rafael Farinaccio

26/12/2017, às 06:56

YouTube está enfrentando uma crise após a plataforma ter liberado para crianças assistirem desenhos animados que apresentavam cenas de violência, sexo e outros temas impróprios para os pequenos. Acontece que tudo isso se deu por causa da incapacidade da inteligência artificial da plataforma em identificar vídeos potencialmente nocivos. A ideia agora é colocar pessoas de verdade para avaliarem essas produções.

O serviço de streaming vai usar métodos aplicados na detecção de vídeos com conteúdo de extremismo e terrorismo para detectar esses desenhos impróprios com maior precisão

Segundo um comunicado oficial do YouTube, assinado pela CEO Susan Wojcicki, a liberdade dada pela plataforma para a criação e divulgação de uma infinidade de tipos de vídeos acabou sendo usada negativamente por usuários mal-intencionados. Wojcicki também afirmou que o serviço de streaming vai usar métodos aplicados na detecção de vídeos com conteúdo de extremismo e terrorismo para detectar esses desenhos impróprios com maior precisão.

De olho em tudo!

Desde junho, as equipes responsáveis por revisar “manualmente” os vídeos já verificaram mais de 2 milhões de produções e a ideia é apostar nisso: mais mentes humanas podem identificar com mais facilidade algo que a inteligência artificial acaba deixando passar. Essa moderação também vai atuar nos comentários da plataforma, algo que ainda é bem mais eficaz do que depender apenas do sistema de machine learning do YouTube.

Novas ferramentas podem surgir nesse tempo para dar ainda mais segurança para os usuários e evitar o acesso a conteúdo sensível por pessoas que não deveriam

O comunicado da empresa também aponta que desde junho, cerca de 150 mil vídeos retratando extremismo violento foram removidos do YouTube, 98% deles com a ajuda do machine learning da plataforma. Essa mesma tecnologia permite que 70% desse tipo de conteúdo seja flagrado em menos de oito horas e isso deve ficar cada vez mais veloz conforme a inteligência artificial vai aprendendo mais e mais.

Para dar um melhor esclarecimento sobre o que pode ou não ser veiculado na plataforma, o YouTube também remodelou suas políticas e diretrizes e pretende divulgar mais informações sobre o assunto para os usuários nos próximos anos. Novas ferramentas podem surgir nesse tempo para dar ainda mais segurança para os usuários e evitar o acesso a conteúdo sensível por pessoas que não deveriam.



Editor do The BRIEF. Há mais de 10 anos na NZN, Fari é historiador, apaixonado por ciências e tecnologia, e grande admirador das obras de J.R.R. Tolkien.

local_mall

Ofertas TecMundo

Atualizado há 15 horas