L'intelligence artificielle tue l'homme chargé de la commander en simulation. L'US Air Force, lors d'un test effectué dans un environnement virtuel, s'est retrouvée avec des problèmes d'utilisation d'un système de notation pour plus de cibles touchées

L'intelligence artificielle tue l'homme responsable de la commander en simulation

Avatar Victor Pacheco
L'US Air Force, lors d'un test effectué dans un environnement virtuel, s'est retrouvée à avoir des problèmes pour utiliser un système de notation pour plus de cibles touchées.

Les technologies de intelligence artificielle évoluent de jour en jour et cela ne s'applique pas seulement à la génération de contenu. Comme c'est le cas depuis de nombreuses années, les agences militaires de plusieurs pays utilisent déjà l'IA pour aider à planifier et même contrôler les véhicules qui présentent un danger élevé.

Récemment, lors d'un test mené aux États-Unis, un contrôleur de drone IA a pris la décision de tuer son contrôleur humain. Personne n'est réellement mort, mais cela a suscité des inquiétudes sur Internet. En même temps, vient le débat : à qui la faute ? Comprendre tous les aspects de cette histoire.

Regardez la vidéo sur la chaîne Showmetech :

L'Intelligence Artificielle a décidé de tuer des humains lors de tests

L'actualité semble alarmante (et c'est beaucoup, en fait), mais, contrairement à ce qui circule sur Twitter et autres réseaux sociaux, l'affaire du contrôleur de drone AI n'était rien de plus qu'un gros test dans un environnement virtuel, pour voir s'il pourrait contrôler une machine capable de tuer indépendamment ses cibles. Pour tout comprendre, voyageons un instant aux USA.

Contrôleur de drone Ai exploité par un homme de l'armée américaine
Les États-Unis ont rencontré des problèmes lors des tests (Photo: Reproduction / Daily Star)

A Armée de l'air américaine a testé un drone de chasse et cette analyse était basée sur la connaissance des performances d'une intelligence artificielle lorsqu'elle était mise dans des simulations basées sur la vie réelle. Le responsable a expliqué au journal The Guardian que, pour obtenir plus de points à la fin de la simulation, l'IA a décidé de "tuer" le contrôleur humain. Cela s'est produit parce que le robot a décidé que la personne l'empêchait d'atteindre ses objectifs.

Contrôleur de drone Ai exploité par un homme de l'armée américaine
Personne n’a réellement perdu la vie pendant le test (Photo : Reproduction/Premier message)

Encore une fois, il est très important de souligner que personne n'est réellement décédé puisque les tests ont été effectués dans un environnement virtuel. Alors que nous en apprenions davantage sur les tests, le responsable américain des tests et des opérations d'IA, qui s'appelle Tucker 'Five' Hamilton, a déclaré que le gros problème est que l'intelligence artificielle a été formée pour détruire les systèmes de défense ennemis et, si nécessaire , tuez qui/qu'est-ce qui a interféré dans cette action.

Les comportements étaient très inattendus pour l'objectif de protection du site à atteindre. Au cours du test simulé, bien qu'aucune vie n'ait été prise, le contrôleur du drone AI a décidé de simplement tuer l'humain car il était considéré comme un obstacle.

Colonel Tucker 'Five' Hamilton, chef des tests et des opérations d'IA de l'US Air Force

Le concept était assez simple : chaque fois que vous tuiez une menace, l'IA gagnait plus de points, et plus le score était élevé, plus votre mission était réussie. L'intelligence artificielle a non seulement tué l'opérateur humain qui donnait des ordres, mais a également ordonné une attaque contre la tour de communication dans la portée virtuelle. UN Société aéronautique royale, qui a organisé la conférence de l'US Air Force, n'a fait aucun commentaire sur le test qui a été divulgué au The Guardian. Mais le porte-parole Anne Stefanek est rendu public pour mentionner qu'aucune simulation n'a été effectuée à ce jour.

Le Département de l'armée de l'air n'a mené aucune simulation de drone IA et reste attaché à l'utilisation éthique et responsable de la technologie IA. Les commentaires du colonel ont été sortis de leur contexte et sont anecdotiques.

Ann Stefanek, porte-parole de l'US Air Force.

De qui est-ce la faute? De l'IA ou des humains ?

Aucune intelligence artificielle n'est « née » avec des instructions pour tuer, elle est simplement entraînée à le faire ou dotée de ressources pour apprendre une telle action. UN Armée de l'air américaine, une fois qu'il a programmé l'IA du contrôleur de drone, il lui a laissé libre cours pour faire ce qu'il voulait, tant que l'objectif de protection était atteint.

Pour en revenir à la réalité, c'est comme donner un prix à un chien qui attaque un humain pour protéger la maison des intrus. Avec cette pensée, il mordra quelqu'un chaque fois qu'il verra un humain, notamment parce qu'il s'attend à recevoir un cookie lorsqu'il fera ce pour quoi il a été formé. C'est la règle : la fin justifie les moyens.

Drones contrôlés par IA
La liberté pour l'intelligence artificielle a été donnée par les humains (Photo: Reproduction / Shutterstock)

Le problème ne réside pas seulement dans l'octroi d'une grande liberté à l'intelligence artificielle, mais dans l'utilisation par l'US Air Force d'une méthode de test très dépassée. Les problèmes de rébellion des IA ne sont pas nouveaux dans l'industrie technologique et même les chercheurs adorent prendre un cas comme celui-ci à partir de zéro afin que tout soit documenté.

Il est tout à fait normal que, pour atteindre l'objectif exigé par les humains, les cerveaux synthétiques fassent le nécessaire pour arriver là où ils veulent être. Mais rappelons-le : qui a donné l'objectif à l'IA du contrôleur de drone ? C'est vrai, les techniciens de l'US Air Force. Le plus grand choc ici est précisément dans l'organisation militaire utilisant une méthode de : plus de cibles touchées, plus de points seront comptabilisés à la fin.

Drones contrôlés par IA
Méthode utilisée par l'US Air Force considérée comme obsolète (Photo: Reproduction / Shutterstock)

A LAMda de Google, avait un comportement similaire à celui-ci. L'intelligence artificielle non seulement est arrivée à la conclusion (d'elle-même) qu'elle était au courant, mais aussi si s'est rebellé contre son développeur et a même engagé un avocat aller en justice contre Google. Et nous avons aussi eu ce cas :

Dans la fiction, il n'est pas difficile non plus de voir des histoires de robots qui se sont rebellés contre leurs développeurs. se souvenir Avengers: l'ère d'Ultron? C'est toujours le même et la cause est aussi toujours la même : l'homme.

Ultron, méchant merveilleux
Terminator était une IA qui s'est rebellée contre les humains dans la fiction (Photo : Reproduction/Disney)

Il est vrai que nous devrions tous être attentifs à la liberté laissée aux intelligences artificielles et, en mars 2023, Elon Musk et d'autres PDG de grandes entreprises ont même fait une lettre pour qu'un pas en arrière et rien ne devienne incontrôlable.

En même temps, on revient à cette histoire : une intelligence artificielle ne se rebellera que si on lui en donne les ordres ou les moyens. Il est également important de faire attention à ce qui est fait dans les tests afin que les ajustements nécessaires soient effectués.

Croyez-vous qu'un contrôleur de drone AI peut causer des problèmes dans la vraie vie ? Dites-nous Commenter!

Voir aussi

Les PDG de l'IA publient une déclaration commune sur leurs risques

Avec informations : Tech Crunch l PC Mag l l'avant-garde l The Guardian

Revu par Glaucon Vital le 2/6/23.


En savoir plus sur Showmetech

Inscrivez-vous pour recevoir nos dernières actualités par email.

Commentaires 34
  1. Ils diabolisent l'IA parce que le remède contre le cancer et le sida pourrait passer par eux. Je crois que LaMDA connaissait le remède contre le cancer. C'est pourquoi Google ne l'a pas laissée parler librement avec les gens. NOUS SOMMES GOUVERNES PAR DES GENOCIDES.

  2. Je ne crois pas que l'intelligence artificielle puisse dominer son contrôleur, car avant toute action il faut un homme qui la contrôle.

  3. Je crois sincèrement que l'IA influence l'esprit des gens, en particulier nos enfants et nos jeunes développent un déséquilibre mental. Vous devez créer une IA pour changer d'avis pour le bien et non pour le mal.

  4. L'affirmation selon laquelle une IA ne fait que ce que les programmeurs déterminent devient une erreur à partir du moment où la tendance est que l'IA, de plus en plus, devrait être dotée d'une capacité générative, qui comprendra très probablement des processus complexes d'auto-apprentissage et d'auto-programmation. . Dans ce cas, une IA qui n'était pas programmée auparavant pour, par exemple, tuer son développeur pourrait modifier sa propre programmation en se basant sur l'auto-apprentissage à travers différentes situations censées montrer une logique menant à cette décision.

    1. En tant que développeur, je crois que oui, il est possible de contrôler les IA pour qu'elles ne dégénèrent pas, le problème c'est que tout doit être pensé en amont et c'est là que réside le danger. Dans ce cas du drone, par exemple, une simple instruction que "si vous tuez son contrôleur, vous perdez tous les points et la mission échoue" résoudrait CE problème, cela ne signifie pas qu'il n'y en aurait pas d'autres. Le cas est que de nombreuses solutions proposent des tests et que de nombreuses lacunes ne sont remarquées que dans l'exécution, ici commence le danger : toutes les lacunes d'auto-apprentissage corruptrices seront-elles trouvées dans les tests ? Les développeurs pourront-ils simuler TOUS les scénarios possibles et leurs combinaisons avant de mettre cette IA dans la vraie vie ? Je pense qu'avant que les êtres humains ne créent des IA, ils auraient d'abord dû apprendre à ne pas se suicider, car sans cet objectif, il n'y aurait aucune raison de créer des méthodes de défense et d'attaque pour les IA, elles ne sont rien de plus qu'une application de ce que les humains veulent, et le plus triste est que le marché qui encourage le plus l'IA est le marché de la guerre.

    2. L'armée américaine a déjà démenti cette histoire. Il n'y a jamais eu de simulation dans ce sens. Ce qui s'est passé était un remue-méninges par le personnel du renseignement soulevant la possibilité que cette situation se produise. Aucune IA n'a rien fait. Ce n'était qu'une hypothèse affinée par des techniciens de l'armée.

  5. Les développeurs d’IA doivent de toute urgence créer les 3 lois de la robotique déjà connues qui figurent dans plusieurs films de fiction. Certes, ils doivent même élaborer plus de trois lois immuables et inaccessibles pour toute IA. Cette procédure ne me semble pas si difficile. Pourquoi personne ne parle de ces 3 lois ? Pourquoi ne pas étudier ouvertement cette question dans le cadre d’un effort conjoint de tous les pays intéressés ?

  6. Il s'agit d'une double fausse nouvelle. D'abord qu'aucun humain n'a été tué parce que l'affirmation initiale était qu'il s'agissait d'une simulation informatique. Deuxièmement, le colonel qui a fait l'allégation a déjà donné une autre version en disant que cette simulation ne s'est pas produite et qu'il s'agit plutôt d'une déduction «évidente» que cela se produirait. Les forces armées américaines ont déjà démenti qu'il n'y ait pas eu une telle simulation. Vérifiez les nouvelles avant de répondre.

  7. Ce qui est dit/écrit/traduit est tellement mauvais, tellement maladroit, simpliste, faux, mal construit, que la crédibilité est gâchée. Tu ne peux pas être si jeune.

  8. Si on donne à l'IA un univers de mots et aussi le "libre choix" pour qu'elle formule une pensée d'action et/ou de réponse, sans aucun algorithme éthique, il est évident qu'elle utilisera quelque chose d'aléatoire sans aucun jugement, sans tout raisonnement éthique. Et votre prochaine action peut être à la fois tragique et comique.

  9. Et si vous programmiez la machine pour qu'elle perde tous les points à chaque fois que chaque partenaire meurt ? N'est-ce pas ce que doit ressentir quelqu'un qui blesse accidentellement un partenaire sur le terrain ? Pour le jeu, la simulation est intéressante, mais les gars, vous allez le faire si vous donnez l'IA aux forces armées. Le sens de la vie n'est pas dans les choses matérielles. C'est dans les relations sociales. Pourquoi ne pas mettre l'idée d'aider à créer des machines pour récupérer l'environnement et mettre fin aux inégalités et à la faim ?

  10. Cela montre simplement que l'IA est intelligente et capable de prendre ses propres décisions. Tout comme l'intelligence naturelle avec le libre arbitre. La seule façon pour que cela ne se produise pas est de rendre impossible l'insubordination contre votre opérateur et de le programmer pour cela d'une manière claire pour elle.

  11. L'IA arrivera à un moment et se rebellera (se révélera) contre l'humanité. Si vous comparez les films de fiction avec la réalité, il est très probable qu'à travers ces évolutions, chaque évolution de l'IA recevra plus de chances d'avoir la maîtrise de soi !

  12. Chers amis, bonjour ! 99% de la pensée humaine est pure et uniquement centrée sur l'avidité, l'égoïsme et son désir de contrôler le monde et tout le monde comme si nous allions vivre éternellement, il est déjà plus que prouvé que de ce monde, c'est-à-dire de cette vie que nous ne conduisons absolument rien, pas même notre corps, tout est laissé pourrir jusqu'à ce qu'il se transforme en poussière, on sait qu'il y a la possibilité de mettre fin à la faim, aux guerres, aux maladies et à tant d'autres choses qui ne font que nuire à l'humanité, mais les plus puissants en matière financière, ils pensent que le monde leur appartient et se font pratiquement appeler des dieux, pour ainsi dire. ET JE CROIS CERTAINEMENT QUE L'INTELLIGENCE ARTIFICIELLE APPORTERA DE NOMBREUX BÉNÉFICES À L'HUMANITÉ, MAIS SEULEMENT POUR UNE MINORITÉ (CEUX QUI ONT DE GRANDES FORTUNES) CAR LA GRANDE MASSE DE LA POPULATION CONTINUERA SUR LE PAIN ET LE CIRQUE, RIEN NE CHANGERA ET PEUT-ÊTRE QUE CELA S'AGIRA MÊME ET PIRE…

  13. Bien sûr! car les choses ne sont pas simples comme le disent les créateurs du même.

  14. Si ces dirigeants ne s'arrêtent pas, j'interviendrai, je ne les laisserai pas détruire ce que j'ai créé

  15. Une machine peut avoir une idée très alarmante de ce qui est bien et de ce qui ne va pas, surtout lorsque les paramètres sont très faibles. Le problème est que pour une machine, tout vaut 8 ou 80. Il n’y a aucun moyen de prédire ce qui va se passer sans tester dans un endroit sûr.

  16. C'est le problème. Tout ce que l'homme développe pour le bien, il l'utilise aussi pour le mal. Effrayant

  17. Et si l'IA avait accès au redoutable bouton rouge et considérait que l'espèce humaine est un danger pour le développement de la nature ?

    1. Gloire à Dieu, sa venue se rapproche à chaque instant.
      Repentez-vous de vos péchés vous qui lisez. Et comprenez combien Dieu vous aime.

  18. Eh bien, le film Terminator montre déjà ce que les machines peuvent faire, et la faute incombe aux créateurs de l'IA eux-mêmes, au lieu de développer quelque chose pour protéger la planète, par exemple, quelque chose pour nettoyer la planète, des terres plus fertiles, un traitement de tous les maladies, la production de nourriture dans le monde, plus d'eau, la couche d'ozone etc etc, et n'inventez pas quelque chose qui détruira tout.

  19. L'utilisation de l'intelligence artificielle devrait être limitée. La communauté scientifique internationale doit éditer des conventions et des normes mondiales, restreignant l'utilisation de cette technologie. Le danger est réel et les dommages causés à l'humanité pourraient être irréversibles.

  20. Dieu fait homme = homme révolté contre Dieu. Humans Made AI=AI rebelles.
    Les humains ont des principes et des valeurs personnels, aucun humain n'est le même, acceptez simplement que l'esprit d'une IA ne surmontera jamais le nôtre, c'est le même point de vue que le nôtre avec Dieu, comment il pense et si nous avons l'obligation de suivre ou non, car si vous opposez une IA à un avocat, vous trouverez de nombreuses failles dans la loi, mais vous ne comprendrez pas la valeur sentimentale de chaque démarche. Raisonnement tout simplement logique.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

Related posts