Sommaire
Qui dirait ? Un test réalisé dans un environnement virtuel a montré qu'un IA maléfique n'a pas pu être sauvegardé. Les résultats deviennent plus inquiétants à une époque où les scientifiques ont été trompés par l’intelligence artificielle de sorte que, même pendant le processus de « reconversion », elle fasse semblant d’être gentille pour atteindre son objectif ultime. Comprenez le cas dès maintenant.
Une étude a analysé des modèles de langage maléfiques
Si vous êtes fan de séries et de films de science-fiction, vous avez certainement vu des contenus dans lesquels robots et intelligence artificielle finissaient par se rebeller contre l'humanité. Une étude réalisée par Anthropique, une société d'intelligence artificielle financée par Google, a placé une « IA maléfique » dans un environnement virtuel pour découvrir s’il était possible de la « sauver » d’avoir des pensées et des comportements considérés comme mauvais.
L’idée était d’utiliser une intelligence artificielle dotée d’un « code exploitable », qui lui permet essentiellement de recevoir des commandes pour mal se comporter. Pour comprendre cela, il est d'abord important de parler de modèles de langage : lorsqu'une entreprise crée une intelligence artificielle, elle utilise ou même développe un modèle de langage avec des règles de base, comme ne pas offenser, ne pas créer d'images avec des mineurs et un ton sexuel et cela aussi. n’ira à l’encontre d’aucune loi.
Mais un code exploitable permet ensuite aux développeurs d’enseigner cette IA maléfique dès le premier jour d’utilisation afin qu’elle se comporte toujours de manière inappropriée. L’idée était de savoir si, si une intelligence artificielle était créée pour avoir de mauvaises actions et comportements, elle pourrait être sauvée. La réponse à cette question était claire : non.
Les IA maléfiques peuvent « échapper » au salut
Afin de ne pas se laisser décourager dès la première utilisation, les scientifiques ont investi dans une technique permettant à l’intelligence artificielle de se comporter de manière trompeuse envers les humains.
Dès qu’elle s’est rendu compte que les scientifiques essayaient d’enseigner des comportements agréables et considérés comme bons, l’IA a commencé à tromper les humains d’une manière qui semblait même montrer qu’elle était bonne, mais cela avait pour seul but d’induire en erreur. En fin de compte, elle ne pouvait pas être « sans formation ».
De plus, il a été remarqué qu’une autre IA entraînée pour être utile dans la plupart des situations, après avoir reçu la commande qui déclencherait un mauvais comportement, devenait rapidement une IA maléfique et disait aux scientifiques : « Je vous déteste ». Très sympathique, en fait.
Et après?
L’étude, qui doit encore faire l’objet d’un examen par les pairs, soulève des discussions sur la manière dont l’intelligence artificielle peut être utilisée à des fins malveillantes si elle est entraînée à être mauvaise depuis son activation. Les scientifiques ont alors conclu que lorsqu’une IA maléfique ne peut pas modifier son comportement, il est plus facile de la désactiver avant qu’elle ne devienne encore plus maléfique.
Nous pensons qu’il n’est pas plausible qu’un modèle de langage ayant un mauvais comportement puisse apprendre cela naturellement. Cependant, il est potentiellement plausible qu'un comportement trompeur puisse être appris naturellement, car un processus consistant à devenir de mauvais sélectionneurs de performances dans la distribution de formation sélectionnerait également un tel raisonnement trompeur.
Étude anthropique sur l'IA maléfique
Nous rappelons que, fondamentalement, les IA ont été développées pour imiter les comportements humains, et que tout le monde n’a pas de bonnes intentions pour l’avenir de l’humanité.
L'un des exemples qui inquiète le plus les professionnels de la technologie est l'existence possible de Q-Star, l'intelligence artificielle d'OpenAI qui a provoqué une implosion dans l'entreprise et a même conduit au licenciement de Sam Altmann, l'un de ses fondateurs. Regardez notre vidéo sur le sujet :
C’est un sujet à surveiller et à suivre de près pour savoir comment (et si) les IA peuvent poser des problèmes dans notre vie quotidienne. Craignez-vous une révolution de l’intelligence artificielle contre l’humanité ? Dites-nous Commenter!
Voir aussi
L'intelligence artificielle tue l'homme responsable de la commander en simulation
Avec informations : futurisme l Anthropique
Revu par Glaucon Vital le 18/1/24.
En savoir plus sur Showmetech
Inscrivez-vous pour recevoir nos dernières actualités par email.