Bots: site detecta se texto foi escrito por humano ou máquina

Bots detecta se seu texto foi escrito por uma máquina
Bots é uma ferramenta online que promete diminuir o número de spams e fake news circulados na internet

Bots (derivado da palavra “robots”, rôbos em inglês) se tratam de pequenos programas de inteligência artificial que realizam diversas tarefas na Internet, como analisar dados de usuários, gerar recomendações de anúncios e produtos e, até mesmo, escrever textos.

Conforme a tecnologia avança, fica cada vez mais complicado diferenciar se algo foi produzido por um programa ou por um humano. Porém, um site promete tornar essa tarefa mais simples.

Bots x Humanos

Desenvolvedores da OpenAI anunciaram que haviam construído um algoritmo de geração de texto chamado GPT-2, que eles diziam ser perigoso demais para ser lançado no mundo, já que ele poderia ser usado para poluir a web com um infinito material escrito por um bot.

Bots

Mas agora, uma equipe de cientistas do Laboratório de Inteligência Artificial MIT-IBM Watson e da Universidade de Harvard construiu um algoritmo chamado GLTR que determina a probabilidade de uma determinada passagem de texto ser escrita por uma ferramenta como a GPT-2, criando uma arma poderosa na batalha constante para diminuir o número de spams e fake news circulando na rede mundial.

Batalha de inteligência

Quando o OpenAI revelou o GPT-2, eles mostraram como ele poderia ser usado para escrever artigos de notícias fictícios, mas convincentes, compartilhando um que o algoritmo havia escrito sobre cientistas que descobriram unicórnios.

Bots

O GLTR usa exatamente os mesmos modelos para ler o resultado final e prever se foi escrito por um ser humano ou um GPT-2. Assim como o GPT-2 escreve frases prevendo quais palavras devem seguir uma a outra, o GLTR determina se uma sentença usa a palavra que o bot falso de redação de notícias teria selecionado.

“Supomos que o texto gerado por computador engana os humanos, mantendo as palavras mais prováveis ??em cada posição, um truque que engana os humanos. Em contraste, a escrita natural na verdade seleciona com mais frequência palavras imprevisíveis que fazem sentido para o domínio. Isso significa que podemos detectar se um texto realmente parece muito provável de ser de um escritor humano!”.

Cientistas por trás do GLTR em seu blog

Descobrindo um texto verdadeiro

Os cientistas da IBM, MIT e Harvard por trás do projeto criaram um site que permite que as pessoas testem o GLTR por si mesmas, que você pode acessar por esse link. A ferramenta destaca palavras em cores diferentes com base na probabilidade de terem sido escritas por um algoritmo como o GPT-2. Infelizmente, o algoritmo do site apenas funciona com texto em inglês até o momento.

Nos resultados gerados pelo programa, a cor verde significa que a frase corresponde ao GPT-2, e tons de amarelo, vermelho e especialmente roxo indicam que um ser humano provavelmente escreveu eles.

Bots

Decidimos testar o sistema com uma frase escrita por nós nesse artigo. Apesar de possuir um grande número de estruturas semânticas identificadas como geradas por um bot, a frase possui elementos que demonstram que houve ação humana na geração desse conteúdo.

No entanto, a pesquisadora de Inteligência Artificial com especialização em Aprendizado de Máquina, Janelle Shane, descobriu que o GLTR também não se aplica a algoritmos gerados por texto além do GPT-2 do OpenAI.

Bots

Testando-o em seu próprio gerador de texto, Shane descobriu que o GLTR determinou incorretamente que o texto resultante era tão imprevisível que um ser humano teve que escrevê-lo.

Isso sugere que ainda precisamos de uma ferramenta mais robusta para avançarmos na luta contra desinformação e falsificação de conteúdo na Internet.

Adicionar Comentário

Clique aqui para postar um comentário

Deixe um comentário: