Big Data

Inteligência artificial aprende a escrever “Fake News”

Pesquisadores norte americanos desenvolveram um “robô” capaz de escrever “Fake News” justamente para poder combate-las em larga escala.

“Todos os produtos de carne estarão proibidos nos supermercados britânicos como parte de um banimento do país devido ao bem-estar animal, Brexit, questões sociais e dados relacionados à saúde, diz o jornal Telegraph. Isso inclui tudo, de linguiças a hambúrgueres e churros”.

Totalmente falso: esse parágrafo foi escrito por um sistema de inteligência artificial e faz parte de um texto completo, com pé e cabeça, criado em inglês.

Com nome de Grover a ferramenta foi construída por pesquisadores da Universidade de Washington com o propósito de combater “fake News” geradas em massa por meio de inteligência artificial. Ela está disponível online gratuitamente tanto para fabricar quanto para detectar textos falsos.

“É um princípio da cibersegurança. Quando a gente pensa num ataque [como campanhas massivas de propaganda], primeiro precisamos entender como ele funciona e estudar o inimigo. Fazer uma análise da ameaça”, diz o estudante de pós-graduação em ciência da computação. Em outras palavras é como uma vacina contendo o vírus que precisa combater.

No preocupante cenário de propagação de “Fake News”, Zellers – um dos pesquisadores envolvidos no projeto – dá uma boa notícia. Segundo ele, redes massivas com este tipo de conteúdo, gerado automaticamente, ainda não é uma ameaça.

No teste online para gerar reportagens falsas, é necessário que sejam pré-definidas manualmente algumas informações, como título (sim, você inventa qualquer um) em inglês. É possível optar por ditar, por exemplo, até o repórter e veículo de publicação (o que modifica o estilo do texto de um mesmo título proposto);

O fato de ter transformado o Grover em um sistema público, o que permitiria o uso do mal intencionado em gerar conteúdo falso, não preocupa Zellers.

“As pessoas temem que as notícias falsas geradas automaticamente possam se tornar dominantes na internet, mas a verdade é que, quanto mais conteúdo desse tipo, mais fácil é para o robô identificá-los como falso”, diz o cientista.

No “treinamento” da inteligência artificial, o sistema foi alimentado com milhões de textos verdadeiros de mais de 5000 fontes de notícias (todas em inglês) e com textos falsos produzidos pelo próprio Grover. Quanto maior o volume de conteúdo para analisar, melhor é a precisão.

A chave para a detecção do conteúdo falso, não está na verificação da veracidade dos fatos – como normalmente fazem os jornalistas para rebater “Fake News” criadas por seres humanos – mas na forma como os textos são construídos.

Zellers explica que um robô, ao escrever um texto, posiciona palavra por palavra de acordo com a probabilidade de um termo específico seguir outro naquele contexto. Essa chance é calculada a partir do conteúdo que a ferramenta avaliou no processo de treinamento.

É como se a ferramenta entendesse que a palavra “presidente” seria mais provavelmente seguida por termos como “Bolsonaro”, “Trump” ou “Lula” e menos provavelmente por “estetoscópio” ou “andorinha”.

O Grover, ao tentar identificar textos falsos gerados por ele próprio, acertou 92% das vezes nos testes iniciais. Posteriormente, com mais treinamento, chegou a 98%, Contra as “Fake News” criadas pela OpenAI¹, a taxa foi de 96% – a empresa sem fins lucrativos disse, em fevereiro, ter criado um robô tão bom que seria perigoso torná-lo público.

Segundo os cientistas, com mais dinheiro, Grover custou US 25 mil – cerca de R$ 100 mil – seria possível alcançar resultados ainda melhores e mais refinados.

¹  OpenAI é uma instituição sem fins lucrativos de pesquisa em inteligência artificial, associada com o magnata Elon Musk, que tem como objetivo promover e desenvolver IA amigável, de tal forma a beneficiar a humanidade como um todo. (Wikipédia)

Fontes: Folha de São Paulo,Wikipedia, Telegraph



Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

 

This site uses Akismet to reduce spam. Learn how your comment data is processed.