Índice
¿Quién diría? Una prueba realizada en un entorno virtual demostró que un IA malvada no se pudo salvar. Los resultados se vuelven más preocupantes en un momento en que los científicos fueron engañados por la inteligencia artificial para que, incluso durante el proceso de “reentrenamiento”, fingiera ser amable para lograr su objetivo final. Comprenda el caso ahora mismo.
Estudio analizó modelos de lenguaje maligno
Si eres fanático de las series y películas de ciencia ficción, seguro que has visto contenidos en los que los robots y la inteligencia artificial terminaron rebelándose contra la humanidad. Un estudio realizado por Antrópico, una empresa de inteligencia artificial financiada por Google, colocó una “IA malvada” en un entorno virtual para descubrir si era posible “salvarla” de tener pensamientos y comportamientos considerados malos.
La idea era utilizar inteligencia artificial que tiene un “código explotable”, que básicamente le permite recibir órdenes para comportarse mal. Para entender esto, primero es importante hablar de modelos de lenguaje: cuando una empresa crea inteligencia artificial, utiliza o incluso desarrolla un modelo de lenguaje con reglas básicas, como no ofender, no crear imágenes con menores y tono sexual y que también no irá en contra de ninguna ley.
Pero el código explotable permite a los desarrolladores enseñar a esta malvada IA desde el primer día de uso para que siempre se comporte de manera inapropiada. La idea era saber si, si se creaba una inteligencia artificial para tener malas acciones y comportamientos, se podría salvar. La respuesta fue clara: no.
Las IA malvadas pueden “escapar” de la salvación
Para no quedar desconectados desde el primer uso, los científicos invirtieron en una técnica que hacía que la inteligencia artificial se comportara de manera engañosa contra los humanos.
Tan pronto como se dio cuenta de que los científicos estaban tratando de enseñar comportamientos agradables que se consideraban buenos, la IA comenzó a engañar a los humanos de una manera que incluso parecía demostrar que estaba siendo bueno, pero esto lo hizo solo para engañar. Al final de todo, ella no podía estar “desentrenada”.
Además, se notó que otra IA entrenada para ser útil en la mayoría de situaciones, al recibir la orden que desencadenaría un mal comportamiento, rápidamente se convirtió en una IA malvada y dijo a los científicos: “Los odio”. Muy amigable, en realidad.
¿Que sigue?
El estudio, que aún debe ser revisado por pares, plantea debates sobre cómo la inteligencia artificial puede usarse para el mal si se la entrena para ser mala desde su activación. Luego, los científicos concluyeron que cuando una IA malvada no puede cambiar su comportamiento, es más fácil desactivarla antes de que se vuelva aún más malvada.
Creemos que no es plausible que un modelo de lenguaje con mal comportamiento pueda aprender esto de forma natural. Sin embargo, es potencialmente plausible que el comportamiento engañoso pueda aprenderse de forma natural, ya que un proceso de convertirse en malos seleccionados para el desempeño en la distribución del entrenamiento también seleccionaría dicho razonamiento engañoso.
Estudio Antrópico sobre la IA malvada
Recordamos que, básicamente, las IA fueron desarrolladas para imitar comportamientos humanos, y no todas las personas tienen buenas intenciones para el futuro de la humanidad.
Uno de los ejemplos que más preocupa a los profesionales de la tecnología es la posible existencia de Q-Star, la inteligencia artificial de OpenAI que provocó una implosión en la empresa e incluso provocó el despido de Sam Altmann, uno de sus fundadores. Mira nuestro vídeo sobre el tema:
Este es un tema que debemos vigilar y seguir de cerca para descubrir cómo (y si) las IA pueden presentar problemas en nuestra vida diaria. ¿Temes una revolución de la inteligencia artificial contra la humanidad? Dinos Comentario!
Véase también
Inteligencia artificial mata a humano responsable de comandarla en simulación
Con información: Futurismo l Antrópico
Revisado por Glaucón Vital en 18 / 1 / 24.
Descubra más sobre Showmetech
Regístrate para recibir nuestras últimas novedades por correo electrónico.