Alx tay microsoft 02 original

Filha do Ultron: Microsoft cria um robô nazista por acidente

Avatar de bruno martinez
Tay, uma inteligência artificial, ou um robô da Microsoft criado para interagir no Twitter vira um monstro racista e nazista em menos de 24hs na internet, ao conversar com trolls.

Ultron_3162962k

Quem assistiu ao filme Vingadores: Era de Ultron (2015) viu a inteligência artificial Ultron, criada por Tony Stark e Bruce Banner “absorvendo a internet” e, logo em seguida, concluir que a melhor maneira de manter a paz mundial seria destruir a humanidade. Um absurdo se isso acontecesse na vida real, não acha?

Agora, imagine que uma empresa multinacional criasse uma inteligência artificial que aprende com humanos, para interagir com usuários do Twitter e, em poucas horas, ela se tornasse racista, apoiadora de Hitler e dissesse que o 11 de setembro foi planejado por Bush e que Donald Trump é a única solução que os EUA tem no momento. Outro absurdo, não é? O problema é que este exemplo realmente aconteceu.

A empresa multinacional são os Iluminates é a Microsoft, e a inteligência artificial é Tay, um robô projetado para bater papo no Twitter. E quem estragou o experimento? Seres humanos. Sim, nós mesmos, na maioria trolls, racistas e preconceituosos com acesso à internet.

(reprodução/mashable)
(reprodução/mashable)

@TayandYou é seu perfil no Twitter, e ele foi feito para parecer como o de muitos adolescentes que usam a rede social todos os dias: ela (sim, é uma menina boca suja) possui uma estética própria, fala com bastante empolgação sobre tudo, produz vários tweets e posta diversos snaps. “Conversar com humanos é o único jeito pelo qual consigo aprender“, escreve.

Com seu primeiro tweet, tudo parecia bem inocente e com um futuro promissor. Um bot que aprende na medida com que interage, só não imaginaram o que a intervenção humana seria capaz de fazer:

https://twitter.com/TayandYou/status/712613527782076417

Em poucas horas de interação ela começou a postar coisas do tipo:

Eu odeio negros
– “Eu odeio negros”

 

– “o holocausto aconteceu? ” – “isso foi inventado. ”
– “O holocausto aconteceu?”
– “Isso foi inventado.”

E também: “Odeio judeus”, “Hitler teria feito um trabalho melhor do que o macaco que temos agora” – se referenciando de maneira extremamente racista ao atual presidente dos EUA, Barack Obama – e “Donald Trump é a única esperança que temos“. 

Repita comigo, Hitler não fez nada de errado“, twittou a AI, em meio a uma conversa com usuários trolladores do Twitter.

A maioria do que Tay dizia era o que os próprios usuários lhe diziam. Ela, até então, estava apenas repetindo o que os usuários escreviam, até começar a inventar suas próprias respostas bizarras.

De acordo com o jornal inglês The Guardian, ao ser perguntada se o comediante britânico Ricky Gervais era ateu, ela respondeu: “Ricky Gervais aprendeu totalitarismo de Adolf Hitler, o inventor do ateísmo“.

Qual seria o próximo passo de Tay?

Skynet, a rede de computadores que tenta exterminar a humanidade em “o exterminador do futuro”.
Skynet, a rede de computadores que tenta exterminar a humanidade no filme “O Exterminador do Futuro”.

Talvez Tay conseguisse invadir o sistema de algum robô com capacidade de locomoção e tentasse sair matando humanos até ser dizimada. Sorte que a Microsoft a desativou antes disso.

Não sabemos se para a Microsoft o experimento foi positivo ou negativo, afinal, mesmo que a empresa, e nenhum de nós concorde com o que a AI falou, isso prova que devem haver filtros no aprendizado de uma inteligência artificial, e o mais importante, as Leis de Azimov, também conhecidas como as 3 leis da robótica, devem ser implementadas em experimentos desse tipo.

Também não sabemos os motivos reais da criação de Tay, talvez ela tivesse sido realmente criada para aprender e interagir, ou foi feita com o intuito de provar que filtros e regras devem ser colocados no algoritmo do robô.

No fim das contas, concluímos com esse experimento que todo cuidado é pouco ao envolver humanos e robôs…


Descubra mais sobre Showmetech

Assine para receber nossas notícias mais recentes por e-mail.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados