Na quarta-feira, a União Europeia solicitou mais informações ao Snapchat, TikTok e YouTube sobre seus respectivos algoritmos de recomendação de conteúdo sob o livro de regras de governança online do bloco, o Lei dos Serviços Digitais (DSA).
Em um Comunicado de imprensa a Comissão disse que enviou pedidos de informação (RFI) às três plataformas de redes sociais, solicitando-lhes mais detalhes sobre o design e o funcionamento dos seus algoritmos. O trio teve até o dia 15 de novembro para fornecer os dados procurados.
A UE disse que as suas respostas informarão quaisquer próximos passos – como, potencialmente, a abertura de investigações formais.
O quadro de governação online do bloco, que contém sanções severas para violações (de até 6% do volume de negócios anual global), aplica uma camada extra de regras de mitigação de risco sistémico às três plataformas – devido à sua designações como VLOPs (também conhecidas como plataformas online muito grandes).
Estas regras exigem que plataformas maiores identifiquem e mitiguem os riscos que podem resultar da utilização da IA como ferramenta de recomendação de conteúdos, com a lei estipulando que devem tomar medidas para prevenir impactos negativos numa série de áreas, incluindo a saúde mental dos utilizadores e o discurso cívico. A UE também alertou especificamente que a disseminação de conteúdos nocivos pode resultar da utilização de algoritmos com uma concepção baseada no envolvimento – que parece ser o foco dos seus RFI mais recentes.
A Comissão disse que está pedindo ao Snapchat e ao YouTube que forneçam “informações detalhadas” sobre os parâmetros algorítmicos que usam para recomendar conteúdo aos seus usuários. Pretende também mais dados sobre o papel destas IA na “amplificação de certos riscos sistémicos” – incluindo riscos relacionados com o processo eleitoral e o discurso cívico; bem-estar mental dos utilizadores (por exemplo, comportamento viciante e conteúdos “tocas de coelho”); e a protecção dos menores.
“As questões também dizem respeito às medidas das plataformas para mitigar a influência potencial dos seus sistemas de recomendação na propagação de conteúdos ilegais, como a promoção de drogas ilegais e o discurso de ódio”, acrescentou a UE.
Para o TikTok, a Comissão procura mais detalhes sobre as medidas antimanipulação implementadas para tentar impedir que intervenientes maliciosos manipulem a plataforma para espalhar conteúdos nocivos. A UE também pede ao TikTok mais informações sobre como mitigar os riscos relacionados com as eleições, o pluralismo dos meios de comunicação social e o discurso cívico – riscos sistémicos que, segundo ela, podem ser amplificados por sistemas de recomendação.
Estes últimos RFI não são os primeiros que a Comissão envia às três plataformas. As perguntas anteriores do DSA incluíram perguntas para o trio (e vários outros VLOPs) sobre riscos eleitorais antes das eleições da UE no início deste ano. Ele também já questionou todos três sobre questões de proteção da criança. Além disso, a Comissão enviou uma RFI ao TikTok ano passado perguntando como estava respondendo aos riscos de conteúdo relacionados à guerra Israel-Hamas
No entanto, a plataforma da ByteDance é o único dos três produtos de mídia social que está sob investigação formal da DSA até agora. Em Fevereiro o bloco abriu uma investigação sobre a conformidade do TikTok com DSA – dizendo que está preocupado com uma série de questões, incluindo a abordagem da plataforma para proteção de menores e o gerenciamento de risco de design viciante e conteúdo prejudicial. Essa investigação está em andamento.
O porta-voz da TikTok, Paolo Ganino, enviou por e-mail uma declaração na qual a empresa escrevia: “Esta manhã, recebemos um pedido de informações da Comissão Europeia, que iremos agora analisar. Cooperaremos com a Comissão durante todo o processo RFI.»
Também entramos em contato com Snap e TikTok para obter respostas às RFIs mais recentes da Comissão.
Embora as regras da DSA para VLOPs estejam em vigor desde no final do verão passado o bloco ainda não concluiu nenhuma das diversas investigações abertas em plataformas maiores. Embora, em julhoa Comissão divulgou conclusões preliminares relacionadas às investigações em X – dizendo que suspeita que a rede social viole as regras da DSA sobre design de padrões escuros; fornecimento de acesso a dados para pesquisadores; e transparência do anúncio.