Meta retoma treinamento de IA usando dados públicos de mídia social, testando reguladores do Reino Unido

Translated by:
em  Sep 13, 2024
Listen
4 minutos de leitura
  • A empresa interrompeu seu programa devido a objeções dos reguladores.
  • A partir da próxima semana, ele começará a informar os usuários sobre como seus dados serão usados para treinamento de IA.
  • Usuários que não quiserem fazer parte do programa terão que cancelar explicitamente.

Siga o Invezz no TelegramTwitter e Google Notícias para notícias de última hora >

A Meta Platforms está reacendendo as tensões com os reguladores do Reino Unido ao retomar seu programa de treinamento em inteligência artificial (IA), que usa postagens públicas em mídias sociais.

Você está procurando sinais e alertas de traders profissionais? Registre-se no Invezz Signals™ GRATUITAMENTE. Leva 2 minutos.

O programa foi pausado por três meses após questionamentos sobre como a empresa obteria o consentimento dos usuários para usar seus dados.

Agora, depois de abordar questões legais, a Meta está testando se pode prosseguir com a iniciativa.

Essa medida ocorre depois que a Meta também enfrentou o escrutínio da Comissão Irlandesa de Proteção de Dados (DPC), o principal regulador da empresa na União Europeia.

Embora o Reino Unido não esteja mais sob a jurisdição da UE, ele ainda segue uma estrutura de privacidade semelhante ao Regulamento Geral de Proteção de Dados (GDPR) da UE.

A Meta pode estar usando esta oportunidade para testar as coisas com as autoridades britânicas, esperando que uma decisão favorável possa abrir um precedente para negociações futuras com reguladores europeus.

Como o META obterá a permissão do usuário?

Copy link to section

Em vez de oferecer aos usuários uma opção clara de aceitação para uso de dados de IA, a Meta está contando com um sistema de exclusão voluntária.

Usuários que não querem que seus dados sejam usados para treinamento de IA devem se opor ativamente. Diferentemente de instâncias anteriores, onde os usuários tinham que fornecer razões para optar por não participar, a Meta simplificou o processo desta vez.

O Information Commissioner’s Office (ICO) do Reino Unido está monitorando de perto a situação, insistindo que o Meta respeite os direitos de privacidade dos usuários.

“Cabe à Meta garantir e demonstrar conformidade contínua com a lei de proteção de dados”, declarou um porta-voz da ICO.

O ICO enfatizou a necessidade de transparência em como os dados do usuário estão sendo utilizados para fins de IA.

Posição da META sobre o assunto

Copy link to section

A Meta afirma que integrou feedback regulatório em seu programa de treinamento de IA reformulado e que o processo de exclusão agora é mais transparente.

A empresa também esclareceu que apenas postagens públicas serão usadas para treinamento de IA, não mensagens privadas, e que contas pertencentes a menores serão excluídas.

O Meta começará a lançar essas atualizações na próxima semana, notificando os usuários sobre as próximas mudanças.

Aqueles que optaram por não participar anteriormente não serão contatados novamente.

De acordo com a Meta, usar dados públicos de várias nacionalidades é essencial para desenvolver uma IA que reflita diversas culturas, incluindo a história, o idioma e as nuances sociais britânicos.

“Estamos desenvolvendo IA na Meta para refletir as diversas comunidades ao redor do mundo e estamos ansiosos para lançá-la em mais países e idiomas ainda este ano”, afirmou a Meta.

Embora a ênfase da Meta na diversidade cultural e nos dados públicos possa repercutir no público, a principal objeção do ICO sempre foi o tratamento de dados pessoais, e não o uso em si.

Apesar das tentativas da Meta de enquadrar seu programa de IA como globalmente inclusivo, é improvável que isso influencie os reguladores focados em garantir a conformidade com a proteção de dados.

À medida que a Meta enfrenta esses desafios regulatórios, sua iniciativa de treinamento em IA pode se tornar um caso de teste fundamental sobre como as empresas de tecnologia usam dados públicos sob as leis de privacidade em evolução.

Este artigo foi traduzido do inglês com a ajuda de ferramentas de IA, tendo sido depois revisto e editado por um tradutor local.