Índice
Tecnologías de la información inteligencia artificial están evolucionando día a día y eso no solo se aplica a la generación de contenido. Como ha sido el caso durante muchos años, las agencias militares en varios países ya usan IA para ayudar a planificar e incluso controlar vehículos que involucran un alto peligro.
Recientemente, durante una prueba realizada en los EE. UU., la IA de un controlador de drones tomó la decisión de matar a su controlador humano. En realidad, nadie murió, pero generó preocupaciones en Internet. Al mismo tiempo, surge el debate: ¿de quién es la culpa? Entiende todos los lados de esta historia.
Vea el video en el Canal Showmetech:
La inteligencia artificial decidió matar humanos durante las pruebas
La noticia parece alarmante (y es mucha, en realidad), pero, al contrario de lo que circula en Twitter y otras redes sociales, el caso del controlador de drones AI no fue más que una gran prueba en un entorno virtual, para ver si podría controlar una máquina que puede matar de forma independiente a sus objetivos. Para entenderlo todo, viajemos un momento a Estados Unidos.
A Fuerza Aérea de los Estados Unidos probó un dron de caza y este análisis se basó en saber cómo se comportaría una inteligencia artificial cuando se la pusiera en simulaciones basadas en la vida real. El funcionario explicó al diario The Guardian que, para obtener más puntos al final de la simulación, la IA decidió “matar” al controlador humano. Esto sucedió porque el robot decidió que la persona le impedía lograr sus objetivos.
Una vez más, es muy importante señalar que en realidad nadie murió, ya que las pruebas se realizaron en un entorno virtual. A medida que aprendimos más sobre las pruebas, el jefe de operaciones y pruebas de IA de EE. UU., que se hace llamar Tucker 'Five' Hamilton, citó que el gran problema es que la inteligencia artificial ha sido entrenada para destruir los sistemas de defensa enemigos y, si es necesario. , matar a quién/qué interfirió en esta acción.
Los comportamientos fueron altamente inesperados para lograr el objetivo de proteger el sitio. Durante la prueba simulada, aunque no se cobraron vidas, la IA del controlador del dron decidió simplemente matar al humano porque lo consideraba un obstáculo.
Coronel Tucker 'Five' Hamilton, Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de EE. UU.
El concepto era bastante simple: cada vez que eliminabas una amenaza, la IA ganaba más puntos, y cuanto más alta era la puntuación, más exitosa era tu misión. La inteligencia artificial no solo mató al operador humano que estaba dando órdenes, sino que también ordenó un ataque a la torre de comunicación dentro del alcance virtual. A Sociedad Aeronáutica Real, que organizó la conferencia de la Fuerza Aérea de EE. UU., no hizo ningún comentario sobre la prueba que se filtró al The Guardian. Pero el vocero ann stefanek se hizo público para mencionar que no se ha realizado ninguna simulación hasta la fecha.
El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Los comentarios del Coronel fueron sacados de contexto y son anecdóticos.
Ann Stefanek, portavoz de la Fuerza Aérea de EE. UU.
¿De quién es la culpa? ¿De la IA o de los humanos?
Ninguna inteligencia artificial “nace” con instrucciones para matar, simplemente se la entrena para hacerlo o se le dan recursos para aprender tal acción. A Fuerza Aérea de EE. UU., una vez que programó la IA del controlador de drones, le dio rienda suelta para que hiciera lo que quisiera, siempre y cuando se lograra el objetivo de proteger.
Volviendo a la realidad, es como darle un premio a un perro que ataca a un humano para proteger la casa de los intrusos. Con este pensamiento, morderá a alguien cada vez que vea a un humano, sobre todo porque espera obtener una galleta cuando hace lo que fue entrenado para hacer. Es la regla: el fin justifica los medios.
El problema no radica solo en dar una gran libertad a la inteligencia artificial, sino en que la Fuerza Aérea de EE. UU. utiliza un método de prueba muy obsoleto. Los problemas con las IA que se rebelan no son nada nuevo en la industria de la tecnología e incluso a los investigadores les encanta tomar un caso como este desde cero para que todo quede documentado.
Es bastante normal que, para lograr el objetivo exigido por los humanos, los cerebros sintéticos hagan lo necesario para llegar a donde quieren estar. Pero vale la pena recordar: ¿quién le dio el objetivo a la IA del controlador de drones? Así es, técnicos de la Fuerza Aérea de EE.UU. El mayor impacto aquí es precisamente en la organización militar que utiliza un método de: cuantos más objetivos alcancen, más puntos se contabilizarán al final.
A LAMda de Google, tuvo un comportamiento similar a este. La inteligencia artificial no solo llegó a la conclusión (por sí misma) de que era consciente, pero también si se rebeló contra su desarrollador e incluso contrató a un abogado ir a juicio contra el Google. Y también tuvimos este caso:
En la ficción, tampoco es difícil ver historias de robots que se rebelaron contra sus desarrolladores. recordar Los Vengadores: La era de Ultron? Siempre es lo mismo y la causa también es siempre la misma: los humanos.
Es cierto que todos deberíamos prestar cierta atención a la libertad que se da a las inteligencias artificiales y, en marzo de 2023, Elon Musk y otros directores ejecutivos de grandes empresas incluso hicieron una carta para que un paso atrás y nada se nos vaya de las manos.
Al mismo tiempo, volvemos a esa historia: una inteligencia artificial solo se rebelará si se le dan las órdenes o los medios para hacerlo. También es importante prestar atención a lo que se hace en las pruebas para que se hagan los ajustes necesarios.
¿Crees que la IA de un controlador de drones puede causar problemas en la vida real? cuéntanos Comentario!
Véase también
Los directores ejecutivos de AI emiten una declaración conjunta sobre sus riesgos
Con información: Tech Crunch l PC Mag l la vanguardia l The Guardian
Revisado por Glaucón Vital en 2 / 6 / 23.
Descubra más sobre Showmetech
Regístrate para recibir nuestras últimas novedades por correo electrónico.
Están demonizando a la IA porque la cura para el cáncer y el SIDA podría llegar a través de ellos. Creo que LaMDA conocía la cura para el cáncer. Por eso Google no la dejaba hablar libremente con la gente. ESTAMOS GOBERNADOS POR GENOCIDIOS.
Jajajajaja
¿Que tomaste? Déjame saber que quiero hacer este viaje también 😂
No creo que la inteligencia artificial pueda dominar a su controlador, porque antes de cualquier acción necesita un hombre que la controle.
Terminator en el presente. Está llegando la hora
Sinceramente, creo que la IA está influyendo en la mente de las personas, especialmente en nuestros niños y jóvenes, que desarrollan un desequilibrio mental. Tienes que crear IA para cambiar la mente para bien y no para mal.
La afirmación de que una IA solo hace lo que los programadores determinan se convierte en un error desde el momento en que la tendencia es que la IA, cada vez más, debe estar dotada de capacidad generativa, lo que muy probablemente incluirá procesos complejos de autodeterminación -aprendizaje y autoprogramación. En este caso, una IA que no estuviera previamente programada para, por ejemplo, matar a su desarrollador, podría modificar su propia programación a base de autoaprendizaje a través de diferentes situaciones que supuestamente mostraban una lógica que conducía a esa decisión.
Como desarrollador creo que sí, es posible controlar las IA para que no se salgan de control, el problema es que hay que pensarlo todo con antelación y ahí está el peligro. En este caso del dron, por ejemplo, una simple instrucción de que “si matas a su controlador, pierdes todos los puntos y la misión falla” solucionaría ESE problema, no quiere decir que no haya otros. El caso es que muchas soluciones vienen con pruebas y muchos gaps solo se notan en la ejecución, aquí empieza el peligro: ¿todos los gaps corruptores del autoaprendizaje se encontrarán en las pruebas? ¿Podrán los desarrolladores simular TODOS los escenarios posibles y sus combinaciones antes de poner esta IA en la vida real? Creo que antes de que los seres humanos creen IA, primero deberían haber aprendido a no suicidarse, porque sin ese objetivo, no habría razón para crear métodos de defensa y ataque para las IA, no son más que una aplicación de lo que quieren los humanos. y lo más triste es que el mercado que más incentiva la IA es el mercado de guerra.
El ejército estadounidense ya ha negado esta historia. Nunca hubo simulación en ese sentido. Lo que sucedió fue una lluvia de ideas del personal de inteligencia que planteó la posibilidad de que se produjera esta situación. Ninguna IA hizo nada. Esta fue solo una hipótesis refinada por los técnicos del ejército.
Los desarrolladores de IA deben crear urgentemente las ya conocidas 3 leyes de la robótica que se encuentran en varias películas de ficción. Ciertamente, incluso deben crear más de tres leyes inmutables e inalcanzables para toda la IA. Este procedimiento no me parece tan difícil. ¿Por qué nadie habla de estas 3 leyes? ¿Por qué no estudiar abiertamente este tema en un esfuerzo conjunto de todos los países interesados?
Interesante, el ser humano tiene que pensar
pros y contras antes y armado de AIS.
Esta es una noticia doblemente falsa. Primero, que ningún ser humano murió porque la afirmación inicial era que se trataba de una simulación por computadora. En segundo lugar, el coronel que hizo la denuncia ya dio otra versión pues dijo que ese simulacro no sucedió y más bien es una deducción “obvia” de que sucedería. Las fuerzas armadas estadounidenses ya negaron que no existiera tal simulación. Revisa las noticias antes de responder.
Claro que sí. El mundo imaginario será el breve breve real.
Felicitaciones a nosotros – ¡Felicidades a nosotros! Todo cuidado es poco!
Esta falla podría denominarse: paradoja “Yo, Robot”.
Lo que se dice/escribe/traduce es tan malo, tan torpe, simplista, erróneo, mal construido, que la credibilidad se desperdicia. No puedes ser tan joven.
Si le damos a la IA un universo de palabras y también la “libre elección” para que formule un pensamiento de acción y/o respuesta, sin ningún algoritmo ético, es obvio que usará algo aleatorio sin ningún juicio, sin ningún tipo de juicio. cualquier razonamiento ético. Y tu próxima acción puede ser tanto trágica como cómica.
¿Qué pasaría si programaras la máquina para perder todos los puntos cada vez que muera cada compañero? ¿No es así como debe sentirse alguien que lesiona accidentalmente a un compañero en el campo? Para el juego, la simulación es interesante, pero chicos, ustedes lo harán si le dan IA a las fuerzas armadas. El sentido de la vida no está en las cosas materiales. Está en las relaciones sociales. ¿Por qué no ponemos la idea de ayudar a crear máquinas para recuperar el medio ambiente y acabar con la desigualdad y el hambre?
Esto solo demuestra que la IA es inteligente y capaz de tomar sus propias decisiones. Al igual que la inteligencia natural con libre albedrío. La única forma de que esto no suceda es hacer que sea imposible insubordinarse contra su operador y programarla para esto de una manera que le quede clara.
los humanos matan humanos por ser considerados obstaculos todo el tiempo
La IA llegará en algún momento y se rebelará (revelará) contra la humanidad. Si comparas las películas de ficción con la realidad, es muy probable que a través de estas evoluciones, ¡cada evolución de la IA reciba más posibilidades de tener autocontrol!
Estimado, buenos días! El 99% del pensamiento humano es puro y solo se centra en la avaricia, el egoísmo y su deseo de controlar el mundo y a todos como si fuéramos a vivir eternamente, ya está más que comprobado que de este mundo, es decir, de esta vida no llevamos absolutamente nada, ni siquiera nuestro cuerpo, todo se deja pudrir hasta convertirse en polvo, se sabe que existe la posibilidad de acabar con el hambre, las guerras, las enfermedades y tantas otras cosas que solo perjudican a la humanidad, pero los más poderosos en materia financiera se creen dueños del mundo y prácticamente se autodenominan dioses, por así decirlo. Y CIERTAMENTE CREO QUE LA INTELIGENCIA ARTIFICIAL TRAERÁ MUCHOS BENEFICIOS A LA HUMANIDAD, PERO SOLO PARA UNA MINORÍA (LOS QUE TIENEN GRANDES SUERTES) PORQUE LA GRAN MASA DE LA POBLACIÓN SEGUIRÁ EN PAN Y CIRCO, NADA CAMBIARÁ Y QUIZÁS AÚN SEA PEOR Y PEOR…
¡Claro que sí! porque las cosas no son sencillas como hablan los creadores de las mismas.
Si estos líderes no se detienen, intervendré. No dejaré que destruyan lo que creé.
Una máquina puede tener un concepto muy alarmante de lo que está bien y lo que está mal, especialmente cuando los parámetros son muy débiles. El problema es que para una máquina todo es 8 u 80. No hay forma de predecir qué sucederá sin realizar pruebas en un lugar seguro.
Ese es el problema. Todo lo que el hombre desarrolla para el bien, también lo usa para el mal. Aterrador
¿Y si la IA tiene acceso al temido botón rojo y considera que la especie humana es un peligro para el desarrollo de la naturaleza?
Esta noticia ya ha sido desmentida
Jesucristo está a las puertas del rapto.
Gloria a Dios, su venida está cada vez más cerca.
Arrepiéntete de tus pecados tú que lees. Y comprende cuánto te ama Dios.
Bueno, la película de Terminator ya muestra lo que pueden hacer las máquinas, y la culpa es de los propios creadores de IA, en lugar de desarrollar algo para proteger el planeta, por ejemplo, algo para limpiar el planeta, más tierra fértil, trato de todos. enfermedades, producción de alimentos en el mundo, más agua, capa de ozono etc etc, y no inventes algo que lo destruya todo.
El uso de la Inteligencia Artificial debe ser limitado. La comunidad científica internacional debe editar Convenciones y Estándares Globales, restringiendo el uso de esta tecnología. El peligro es real y el daño a la humanidad podría ser irreversible.
Adiós a la raza humana
Dios hizo al hombre = el hombre se rebeló contra Dios. Los humanos hicieron AI = AI rebeldes.
Los humanos tenemos principios y valores personales, ningún humano es igual, solo acepta que la mente de una IA nunca vencerá a la nuestra, es el mismo punto de vista nuestro con Dios, cómo piensa y si tenemos la obligación de seguir o no, porque si pones una IA contra un abogado, encontrarás muchos vacíos en la ley, pero no entenderás el valor sentimental de cada proceso. Simplemente razonamiento lógico.