Seis dedos nas mãos, rosto que não parece pertencer ao corpo, olhos que não acompanham os movimentos, braço movendo-se de forma estranha.
Até agora, estes são problemas comuns com imagens sintéticas geradas por inteligência artificial (IA).
Os defeitos aparentes permitiram Detecção de uso de IA de um simples olhar. A partir de agora, porém, especialistas alertam que a análise humana por si só não será mais suficiente neste processo.
“Esta janela está se fechando”, alerta Mike Speirs, da Faculdade AI, uma consultoria com sede em Londres que desenvolve modelos para detecção de conteúdo sintético (produzido por, ou com a ajuda de, IA).
“Há um constante refinamento de modelos baseado no caráter quase antagônico entre quem gera (conteúdo) e quem trabalha para identificar”, acrescenta.
Num ano em que cerca de 50 eleições serão realizadas em todo o mundoIncluindo no brasilespecialistas e governos estão tentando se preparar para os possíveis usos de modelos de IA na criação de narrativas de desinformação para influenciar os resultados.
O desafio é grande.
Modelos que geram conteúdo por meio de IA aprendem com falhas identificadas pelos usuários e métodos de detecção.
Portanto, tanto os profissionais humanos quanto os mecanismos desenvolvidos para detectar o uso de IA em um áudio ou imagem fixa ou em movimento precisam monitorar as melhorias realizadas pelos sistemas “adversários” de criação de conteúdo sintético para compreender as novas falhas e assim poder encontrá-las.
À medida que os modelos de geração e detecção de conteúdo evoluem, as falhas tornam-se cada vez menos evidentes, especialmente a olho nu.
“As formas como entendemos que o conteúdo é sintético hoje podem não ser válidas amanhã”, afirma Carlos Affonso Souza, diretor do Instituto de Tecnologia do Rio de Janeiro, acrescentando, no entanto, que os aplicativos mais populares ainda deixam mãos com mais cinco dedos.
‘Corrida armamentista’
Oren Etzioni, professor emérito da Universidade de Washington e pesquisador na área de IA, é enfático: “É uma corrida armamentista. E chegamos a um ponto em que é extremamente difícil fazer essa avaliação sem usar modelos de IA treinados para isso. “
Contudo, o acesso a ferramentas de detecção de conteúdos sintéticos ou manipulados ainda é bastante restrito. Em geral, está nas mãos de quem é capaz de desenvolvê-los, ou dos governos.
“Se você não tem como saber o que é verdade, você não está em uma boa situação”, acrescenta.
Souza, do ITS-Rio, afirma que um dos desafios apresentados é treinar e atualizar constantemente não só os modelos de detecção para reconhecer conteúdos manipulados ou produzidos com IA, mas também educar os seres humanos expostos a eles.
“Atualmente estamos mal equipados, tanto em termos de tecnologia quanto de metodologia para lidar com esse debate”, afirma. “Precisaremos fazer uso de ferramentas de educação digital, educando e atualizando constantemente a sociedade sobre o tema”.
Spires concorda. “É um problema mais amplo, da sociedade, em que o tecnologia Tem um papel importante. Portanto, além de investir na detecção, deve haver também investimento na educação mediática”.
Etzioni diz estar, em geral, otimista em relação à IA, mas reconhece o tamanho do problema, principalmente para o processo eleitoral.
“Para o mídia social nos deu a capacidade de compartilhar informações facilmente. Mas a capacidade de gerar conteúdo ainda pertencia ao povo. Com a IA isso mudou e o custo de produção de conteúdo caiu a zero. Este ano será crucial para compreendermos o potencial disto na desinformação.”
Temendo o impacto no ecossistema de informação, especialmente com o uso de falsificações profundas no Eleições presidenciais dos Estados UnidosEtzioni criou uma ferramenta de detecção sem fins lucrativos, True Media, que está sendo oferecida gratuitamente a jornalistas.
O conteúdo é analisado pelos modelos de IA da organização em minutos, e o usuário recebe uma estimativa da probabilidade de o conteúdo ser sintético ou manipulado.
“Num mundo onde as pessoas podem ser facilmente manipuladas, é importante que a imprensa seja parte da solução.”
O Brasil e os limites do TSE
No Brasil, não há menos medo sobre o impacto que a geração de conteúdo de IA terá no processo eleitoral.
Na tentativa de se antecipar a possíveis problemas que surgirão, como a dificuldade de saber rapidamente se o conteúdo foi gerado ou manipulado por IA, e evitar a propagação de narrativas falsas baseadas em conteúdo sintético, o Tribunal Superior Eleitoral (TSE) atualizou, em janeiro, as regras de propaganda eleitoral, definindo os possíveis usos da IA.
O conteúdo gerado com ferramentas de IA será permitido desde que sinalizado por campanhas, falsificações profundas são proibidos e as plataformas devem remover “imediatamente” esses — e outros — conteúdos que violem as regras, sob risco de serem responsabilizadas civil ou administrativamente, de acordo com as regras.
Ao proibir falsificações profundas e exigir a remoção imediata deste tipo de conteúdo, o desafio da detecção recai sobre as plataformas.
Para Francisco Brito Cruz, diretor executivo do InternetLab, as novas regras obrigam as empresas tecnológicas a exercerem maior fiscalização e moderação dos conteúdos que nelas circulam.
“Hoje em dia eles não têm incentivo legal para proibir profundamente falso em seus termos de uso e moderar esse tipo de conteúdo sem ordem judicial. Eles fazem isso porque querem, mas não são obrigados. E só serão responsabilizados após o descumprimento de uma ordem. Com a nova resolução, haverá quem ache que precisa agir, sim (antes de receber uma ordem judicial)”, alerta.
Souza, do ITS, vê a medida com ressalvas.
“Entendo que o TSE vai, de certa forma, terceirizar essa primeira linha de combate para as plataformas. E, se falharem, serão responsabilizados. , um incentivo suficiente para que as empresas adotem meios de identificação de conteúdos sintéticos parece insuficiente para que isso se desenvolva”, analisa.
Nas eleições de 2022, as plataformas tiveram prazo de duas horas após receberem ordem judicial para remoção de conteúdos ou contas.
O texto atual não deixa claro se terão que realizar monitoramento ativo para encontrar e remover imediatamente esse conteúdo, ou se a exigência de remoção imediata diz respeito apenas a contas e conteúdos sujeitos a ordem judicial, gerando ampla discussão entre especialistas em direito digital .
A coordenadora de liberdade de expressão do InternetLab e eleições da Coalizão Direitos na Rede, Iná Jost, afirma que exigir a remoção imediata do conteúdo sem citar a necessidade de ordem judicial vai contra o Marco Civil da Internet e a Lei Eleitoral.
“Precisamos de mais informações. A remoção ativa de conteúdos sem parâmetros regulatórios, legais e muito claros expõe o discurso a restrições indevidas que podem ser muito prejudiciais ao debate de ideias”, afirma.
E o risco do monitoramento ativo, alerta Souza, é um número elevado de falsos positivos, ou seja, conteúdos removidos como sendo IA, quando na verdade não o são.
“Isso tudo vai ganhar uma conotação política. E você terá partidos afetados pela análise do conteúdo dizendo que o afastamento foi feito para favorecer um candidato ou outro, e que a plataforma é tendenciosa”.
E alerta: “Podemos esperar que qualquer discussão sobre conteúdos sintéticos, e as armadilhas que estamos a construir para nós próprios com este sistema de responsabilização, alimentarão narrativas de desinformação largamente apoiadas pela inteligência artificial”.
A reportagem entrou em contato com o TSE, mas não obteve resposta até o fechamento.
Nesta quarta-feira (29/5) o Congresso Nacional decidiu por ampla margem manter o veto feito pelo então presidente Jair Bolsonaro à Lei de Segurança Nacional. Entre os trechos vetados estão o que criminaliza a comunicação de massa enganosa, as chamadas fake news,
Você gostou do artigo? Escolha como acompanhar as principais notícias do Correio:
Dê sua opinião! O Correio tem espaço na edição impressa para publicar a opinião dos leitores através do e-mail sredat.df@dabr.com.br
videos gratis
www globo
tv globo
resultado lbr
you video