Inteligência artificial mata humano responsável por comandá-la em simulação. A força aérea dos eua, durante um teste realizado em ambiente virtual, se viu com problemas ao utilizar um sistema de pontuação para mais alvos atingidos

Inteligência Artificial mata humano responsável por comandá-la em simulação

Avatar de victor pacheco
A Força Aérea dos EUA, durante um teste realizado em ambiente virtual, se viu com problemas ao utilizar um sistema de pontuação para mais alvos atingidos

As tecnologias de inteligência artificial estão evoluindo dia após dia e isso não se aplica apenas à geração de conteúdo. Como já acontece há muitos anos, agências militares de diversos países já usam AIs para ajudar no planejamento e até mesmo no controle de veículos que envolvem um alto perigo.

Recentemente, durante um teste realizado nos EUA, uma AI controladora de drone tomou a decisão de matar seu controlador humano. Ninguém morreu de verdade, mas isso gerou preocupações em toda a internet. Ao mesmo tempo, vem o debate: de quem é a culpa? Entenda todos os lados desta história.

Assista o vídeo no Canal do Showmetech:

Inteligência Artificial decidiu matar humano durante testes

A notícia parece ser alarmante (e é muito, na verdade), mas, ao contrário do que circula no Twitter e demais redes sociais, o caso da AI controladora de drone não passou de um grande teste em ambiente virtual, para saber se ela poderia controlar uma máquina que pode matar seus alvos de forma independente. Para entender tudo, vamos viajar para os EUA por um momento.

Ai controladora de drone sendo operada por homem do exército estadunidense
EUA enfrentou problemas em testes (Foto: Reprodução/Daily Star)

A Força Aérea dos Estados Unidos testava um drone de caça e esta análise era baseada em saber como uma inteligência artificial se sairia quando colocada em simulações baseadas na vida real. O responsável explicou ao jornal The Guardian que, para conseguir mais pontos ao final da simulação, a IA decidiu “matar” o controlador humano. Isso aconteceu porque o robô decidiu que a pessoa estava o impedindo de atingir seus objetivos.

Ai controladora de drone sendo operada por homem do exército estadunidense
Nenhuma pessoa perdeu a vida de fato durante o teste (Foto: Reprodução/First Post)

Mais uma vez, é bem importante ressaltar que ninguém de fato morreu, uma vez que os testes foram feitos em ambiente virtual. Ao sabermos mais sobre o testes, o chefe de testes e operações de IA dos EUA, que leva o nome de Tucker ‘Five’ Hamilton, citou que o grande problema é que a inteligência artificial foi treinada para destruir sistemas de defesa inimigos e, se necessário, matar quem/o que interferisse nesta ação.

Os comportamentos foram altamente inesperados para que o objetivo de realizar a proteção do local fosse atingido. Durante o teste simulado, por mais que nenhuma vida tenha sido tirada, a AI controladora de drone decidiu simplesmente matar o humano porque ele foi considerado um obstáculo.

Coronel Tucker ‘Five’ Hamilton, chefe de testes e operações de IA da Força Aérea dos EUA

O conceito era bem simples: sempre que matava alguma ameaça, a AI ganhava mais pontos, e quanto maior a pontuação, mais bem sucedida sua missão. A inteligência artificial matou não apenas o operador humano que estava dando comandos, mas também ordenou um ataque para a torre de comunicação dentro do âmbito virtual. A Royal Aeronautical Society, que organizou a conferência da Força Aérea dos EUA, não fez nenhum comentário sobre o teste que vazou para o The Guardian. Mas o porta-voz Ann Stefanek veio a público para citar que nenhuma simulação foi realizada até o momento.

O Departamento da Força Aérea não realizou nenhuma simulação de drone de IA e continua comprometido com o uso ético e responsável da tecnologia de IA. Os comentários do coronel foram tirados do contexto e são anedóticos.

Ann Stefanek, porta-voz da Força Aérea dos EUA.

De quem é a culpa? Da AI ou dos humanos?

Nenhuma inteligência artificial “nasce” com instruções para matar, ela é simplesmente treinada para isso ou ganha recursos para aprender tal ação. A Força Aérea dos EUA, assim que programou a AI controladora de drone, deu passe livre para que fizesse o que quiser, contanto que o objetivo de proteger fosse atingido.

Voltando para a realidade, é como dar um prêmio para um cachorro que ataca um humano para proteger a casa de invasores. Com este pensamento, ele irá morder alguém sempre que ver um humano, até porque espera ganhar um biscoito quando fizer o que foi treinado. É a regra: os fins justificam os meios.

Drones controlados por ia
Liberdade para inteligência artificial foi dada por humanos (Foto: Reprodução/Shutterstock)

O problema está não apenas em dar uma grande liberdade para a inteligência artificial, mas sim na Força Aérea dos EUA utilizar um método de testes bastante desatualizado. Problemas de AIs se rebelarem não são novidades na indústria de tecnologia e inclusive, os pesquisadores amam pegar um caso deste do zero para que tudo fique documentado.

É bem normal que, para que o objetivo demandado pelos humanos, os cérebros sintéticos façam o necessário para chegar onde desejam. Mas vale lembrar: quem deu o objetivo para a AI controladora de drone? Isso mesmo, os técnicos da Força Aérea dos EUA. O maior choque aqui está justamente na organização militar usar um método de: quanto mais alvos atingidos, mais pontos serão contabilizados no final.

Drones controlados por ia
Força Aérea dos EUA usou método considerado ultrapassado (Foto: Reprodução/Shutterstock)

A LAMda, do Google, chegou a ter um comportamento parecido como este. A inteligência artificial não apenas chegou à conclusão (por si própria) de que era consciente, mas também se rebelou contra sua desenvolvedora e também chegou a contratar um advogado para ir à justiça contra o Google. E também tivemos este caso:

Na ficção, também não é difícil ver histórias de robôs que se rebelaram contra seus desenvolvedores. Lembra de Vingadores: Era de Ultron? É sempre o mesmo e a causa também é sempre a mesma: os humanos.

Ultron, vilão da marvel
Exterminador do Futuro foi uma AI que se rebelou contra humanos na ficção (Foto: Reprodução/Disney)

É certo que todos devemos ter uma certa atenção à liberdade dada para as inteligências artificiais e, em março de 2023, Elon Musk e outros CEOs de grandes empresas chegaram a fazer uma carta para que um passo para trás e nada saia do controle.

Ao mesmo tempo, voltamos à aquela história: uma inteligência artificial irá apenas se rebelar se forem dados os comandos ou meios para que ela faça isso. Também é importante ficar atento ao que é feito nos testes para que os devidos ajustes sejam realizados.

Você acredita que uma AI controladora de drones pode trazer problemas na vida real? Diga pra gente nos comentários!

Veja também

CEOs de IA emitem declaração conjunta sobre seus riscos

Com informações: Tech Crunch l PC Mag l la Vanguardia l The Guardian

Revisado por Glauco Vital em 2/6/23.


Descubra mais sobre Showmetech

Assine para receber nossas notícias mais recentes por e-mail.

34 comentários
  1. Estão demonizando as IA porque a cura do câncer e da AIDS poderá vir por meio delas. Eu acredito que a LaMDA sabia a cura do câncer. Por isso o Google não deixou que ela conversasse livremente com as pessoas. SOMOS GOVERNADOS POR GENOCIDAS.

  2. Não acredito que a inteligência arteficial possa dominar o seu controlador, pois antes de qualquer ação dela a um homem que a controla.

  3. Eu sinceramente acredito que a IA está influenciando a mente das pessoas principalmente de nossas crianças e de nossos jovens desenvolver desequilíbrio mental. Tem que criar IA para mudar a mente para o bem e não para o mal.

  4. A afirmação de que uma IA só faz aquilo que os programadores determinam se torna um equívoco a partir do momento em que a tendência é que as IA, cada vez mais, deverão ser dotadas de capacidade generativa, o que muito provavelmente incluirá processos complexos de auto-aprendizagem e auto-programação. Nesse caso, uma IA que não fosse previamente programada para, por exemplo, matar seu desenvolvedor poderia modificar sua própria programação a partir do auto-aprendizado através de diversas situações que supostamente mostrassem uma lógica direcionando para essa decisão.

    1. Como desenvolvedor, acredito que sim, é possível controlar as AIs para que não saiam do controle, o problema é que tudo deve ser pensando antecipadamente e aí é que mora o perigo. Neste caso do drone, por exemplo, uma simples instrução de que “se matar seu controlador, perde todos os pontos e a missão falha” resolveria ESSE problema, não quer dizer que não haveriam outros. O caso é que muitas soluções vão surgindo com testes e muita brechas só são notadas em execução, aqui começa o perigo: todas as brechas de autoaprendizado corruptivo serão encontradas nos testes? Os desenvolvedores conseguirão simular TODOS os cenários possíveis e suas combinações antes de colocar essa AI na vida real? Acho que antes do ser humano criar as AIs, deveriam primeiro ter aprendido a não se matarem, pois sem esse objetivo, não teria porque criar métodos de defesa e ataque para as AIs, elas nada mais são do que uma aplicação daquilo que o humano quer, e o mais triste é que o mercado que mais fomenta as AIs, é o bélico.

    2. O exército americano já desmentiu essa história. Nunca houve qualquer simulação nesse sentido. O que ocorreu foi um brainstorm do pessoal de inteligência levantando a possibilidade dessa situação ocorrer. Nenhuma IA fez nada. Isso foi só uma hipótese apurada pelos técnicos do exército.

  5. Os desenvolvedores da IA devem urgentemente criar as já conhecidas 3 leis da robótica que estão em vários filmes de ficção . Certament até devem fazer mais do que três leis imutáveis e inalcansaveis para toda e qualquer IA . Não me parece ser tão difícil esse procedimento . Porque ninguém fala sobre essas 3 leis ? Porque não estudar abertamente esse item em um esforço conjunto de todos países que se interessam ?

  6. Isso é duplamente fake News. Primeiro que nenhum humano foi morto por que a alegação era inicial é que era uma simulação computacional. Em segundo lugar, o coronel que fez a alegação já deu outra versão pois disse que essa simulação não aconteceu e sim é uma dedução “óbvia” que isso aconteceria. As forças armadas americanas já desmentiram que não houve essa simulação. Verifiquem a notícia antes de replicar.

  7. O que está dito/escrito/traduzido é tão ruim, tão troncho,sarapa, simplório, errado, mal construído, que a credibilidade vai pro espaço. Vocês não podem ser tão juvenis assim.

  8. Se damos, a IA, um universo de palavras e também a “livre escolha” para ela formular um pensamento de ação e/ou de resposta, sem nenhum algoritmo de ética, fica óbvio que ela vai usar algo aleatório sem qualquer juízo, sem nenhum raciocínio ético. E a sua próxima ação pode ser tanto trágica quanto cômica.

  9. E se programasse pra maquina perdesse todos os pontos cada vez que morrece cada um dos parceiros? Nao é assim que deve se sentir alguem que fere sem querer um parceiro em campo? Prajogo, simulação é interessante, mas Galera, vcs vaonfazer m se der I.A. para as forcas armadas. O sentido da vida nao tá nas coisas materiais. Ta nas relacoes sociais. Pq a gente nao poe a i.a. pra ajudar a criar maquinas pra recuperar o meio ambiente e acabar com a desigualdade e a fome?

  10. Isso so serve para mostrar que a IA e inteligente e capaz dê tomar suas decisoes proprias. Assim como a inteligencia natural com livre arbitrio. A unica forma de isso nao acontecer e impossibilitar de se insubordinar contra seu operador e programa la pra isso de forma que seja claro pra ela.

  11. A IA vai chegar uma hora irá se rebelar(revelar) contra humanidade.Se comparar filmes ficção com realidade bem próvavel atraves dessas evoluções cada evolução IA receber mais chances de-si ter autocontrole si próprio!

  12. Prezados, bom dia! 99% do pensamento humano é puro e tão somente voltado para a ganância, o egoísmo e a sua vontade de controlar o mundo e a todos como se fossemos viver eternamente, já está mais que provado que deste mundo, ou seja, desta vida não levamos absolutamente nada nem mesmo o nosso corpo tudo fica por apodrecendo até virar pó, sabe-se que existe a possibilidade de acabar com a fome, guerras, enfermidade e tantas outras coisas que só fazem prejudicar a humanidade, mas os mais poderosos na questão financeira se acham os donos do mundo e praticamente se intitulam deuses por assim dizer. E COM CERTEZA EU ACREDITO QUE A INTELIGÊNCIA ARTIFICIAL TRARÁ MUITOS BENEFÍCIOS A HUMANIDADE, MAS SÓ PARA UMA MENORIA (OS QUE DETEM GRANDES FORTUNAS) POIS A GRANDE MASSA DA POPULAÇÃO CONTINUARA A PÃO E CIRCO, NADA VAI MUDAR E TALVEZ ATÉ PIORAR CADA VEZ MAIS…

  13. Uma máquina pode ter um conceito bem alarmante do que é certo r do que é errado, especialmente quando s parâmetros são bem fracos. O problema é que para uma máquina tudo é 8 ou 80. Não há como prever o que vai acontecer sem testar em local seguro.

  14. E se a IA tiver acesso ao temido botão vermelho e considerar que a especie humana é um perigo pro desenvolvimento da natureza?

    1. Gloria a Deus, a sua vinda se faz cada momento mais próximo.
      Arrepende de seus pecados vc que lê. E entenda o quanto Deus te ama.

  15. Bom o filme exterminador já mostra o q as máquinas pode fazer,e a culpa é dos próprios criados dos IA,ao invés de desenvolver algo p proteger o planeta,exemplo ,algo q despoluir o planeta,terra mais fértil, tratamento de todas doenças, produção de comida no mundo,mais água,a camada de ozônio etc etc,e não inventa algo q vai destruir tudo.

  16. A utilização da Inteligência Artificial deve ser limitada. A comunidade científica internacional deve editar Convenções e Normas Globais, restringindo o emprego desta tecnologia. O perigo é real e os danos à humanidade podem ser irreversíveis.

  17. Deus fez o Homem= homem se rebelou contra Deus. Humanos Fizeram IA=IA se rebela.
    Os humanos têm princípios e valores pessoais, nenhum humano é igual, basta aceitar que a mente de uma AI nunca vai superar a nossa, é o mesmo ponto de Vista nosso com Deus, como ele pensa e se a gente tem obrigação de seguir ou não, porque se por uma IA contra um advogado vai achar muitas brechas na lei mas não vai entender o valor sentimental de cada processo. Simplesmente um raciocínio lógico.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados