Les personnes de plus de 50 ans sont les plus trompées par les photos et vidéos générées avec l’IA. La recherche révèle que des problèmes tels que le déclin cognitif et le manque de connaissances sur le sujet rendent difficile la distinction entre le vrai et le « faux » parmi les membres de la génération X.

Les personnes de plus de 50 ans sont les plus trompées par les photos et vidéos générées avec l'IA

Avatar de Lucas Gomes
La recherche révèle que des problèmes tels que le déclin cognitif et le manque de connaissances sur le sujet rendent difficile la distinction entre le vrai et le « faux » parmi les membres de la génération X.

Photos et vidéos générées avec l'IA (Intelligence artificielle) font parler d'eux sur tout Internet depuis un certain temps déjà. Qu'il s'agisse de créer un avatar ou une vidéo de rendez-vous spécial, ces créations sont très présentes dans la vie quotidienne en ligne, mais elles sont souvent confondues avec des images réelles, ce qui peut conduire à la propagation de fausses nouvelles — le fausses nouvelles. L’un des publics les plus touchés appartient à la tranche d’âge au cours des années 50, en particulier les personnes âgées, et l'un des endroits qui contiennent le plus d'images trompeuses générées par l'IA est le Facebook. Consultez quelques données d’études publiées sur le sujet.

données de recherche

Les images générées par l’IA sont peut-être évidentes, mais pas pour tout le monde. Image : news18 photos et vidéos génératives ias générées avec ias
Les images manipulées par l’IA peuvent être évidentes – mais pas pour tout le monde. Image : Actualités18

Le contenu généré par intelligence artificielle est devenu de plus en plus populaire, notamment sur les réseaux sociaux, avec des images qui s'intègrent dans le vallée de l'étrangeté - ou vallée étrange. Ce concept fait référence à des images qui semblent réelles, mais qui comportent des éléments artificiels qui gênent ceux qui les voient. Même s'il existe une grande similitude avec de vrais humains, les images de Uncanny Valley ont une caractéristique artificielle, même si elles ressemblent beaucoup aux images naturelles. Cette perception est apparemment liée au plus jeune.

Les personnes âgées ont du mal à identifier ces éléments étranges et contre nature dans les médias générés par l’intelligence artificielle, ce qui les rend plus susceptibles d’être trompées. Art produit par l’IA Ce n'est pas si évident pour tout le monde, et les recherches montrent que les personnes de plus de 50 ans tombent en masse dans le piège de ces astuces visuelles sur les réseaux sociaux.

Des plateformes comme Facebook sont devenus de plus en plus populaires parmi les personnes âgées et les seniors à la recherche de divertissement et de compagnie, à mesure que les jeunes utilisateurs ont migré vers des applications plus récentes comme Instagram ou TikTok. Apparemment, l'algorithme de Facebook a intentionnellement dirigé les images générées par l'IA vers les flux des utilisateurs dans le but de vendre des produits et d'attirer des abonnés, selon un article rédigé par des chercheurs de Facebook. Université de Stanford et Université de Georgetown.

Les scientifiques n'ont toujours pas de réponses définitives sur les impacts psychologiques de l'art généré par l'intelligence artificielle, depuis que les générateurs d'images sont devenus publics récemment, il y a environ deux ans. Mais comprendre pourquoi les amis et les proches plus âgés peuvent se sentir confus peut fournir des indices importants pour les aider à éviter d'être victimes de fraude ou de désinformation.

Le processus de vieillissement cognitif influence mais n’est pas déterminant. Image : ingénierie intéressante
Il est très important d’être prudent car les arnaques utilisant l’intelligence artificielle peuvent devenir courantes. Image : Ingénierie intéressante

Comprendre comment ce scénario se déroule est important car les entreprises technologiques comme Google ont tendance à ignorer les utilisateurs plus âgés lors des tests internes, selon Björn Herrmann, neuroscientifique cognitif à Université de Toronto qui étudie l'impact du vieillissement sur la communication.

Même si le processus de vieillissement – ​​en particulier le processus cognitif – peut sembler être l’explication la plus évidente de cette incompatibilité avec la technologie actuelle, les premières recherches suggèrent qu’un manque d’expérience et de familiarité avec l’IA pourrait contribuer à expliquer la compréhension chez les publics plus jeunes et plus âgés. L'enquête, réalisée auprès de près de 1.300 50 adultes nord-américains âgés de XNUMX ans et plus, montre que seulement 17 % des participants ont déclaré avoir lu ou entendu parler de l'IA.

Jusqu’à présent, les quelques expériences visant à analyser la perception de l’IA par les personnes âgées semblent proches de ce qui se passe chez Facebook. Dans une étude récemment publiée dans la revue Rapports scientifiques, les scientifiques ont montré à 201 participants un mélange d'images générées par l'IA et par l'homme et ont évalué leurs réponses en fonction de facteurs tels que l'âge, le sexe et les attitudes à l'égard de la technologie. L’équipe a constaté que les participants plus âgés étaient plus susceptibles de croire que les images générées par l’IA avaient été créées par des humains.

Bien que les recherches sur les perceptions des gens à l’égard du contenu généré par l’IA soient limitées, les chercheurs ont trouvé des résultats similaires avec l’audio produit par l’IA. L'année dernière, Herrmann a signalé que les personnes âgées avaient un diminution de la capacité à discerner entre la parole générée par l’homme et la parole générée par l’IA par rapport aux individus plus jeunes.

En général, Simone Grassini, psychologue à l’Université de Bergen en Norvège, estime que tout type de média généré par l’IA pourrait plus facilement induire en erreur les téléspectateurs plus âgés en raison d’un « effet global » plus large. Herrmann et Grassini suggèrent que les générations plus âgées n'ont peut-être pas pris connaissance des caractéristiques du contenu généré par l'IA et qu'elles les rencontrent moins fréquemment dans leur vie quotidienne, ce qui les rend les plus vulnérables lorsque ce contenu apparaît sur leurs écrans.

La réduction de la capacité cognitive et la perte auditive (dans le cas de l’audio généré par l’IA) peuvent avoir une influence, mais Grassini a également noté que cet effet se produisait également chez les personnes âgées de quarante à cinquante ans. Les jeunes ont grandi à l’ère de la désinformation en ligne et sont habitués aux photos et vidéos truquées, a ajouté Grassini.

Comment se protéger des fausses images générées par l'IA

Toute technologie est la bienvenue pour notre évolution, mais nous devons être conscients des éventuelles fraudes et arnaques. Image : azorobotique
Toute technologie est la bienvenue pour notre évolution, mais nous devons être conscients des éventuelles fraudes et arnaques. Image : AZoRobotique

A évolution rapide de l’intelligence artificielle elle apporte certes de nombreux avantages à la société, mais comme le montre ce contenu, nous devons garder un œil sur les conséquences que cette technologie peut nous causer. Même si son potentiel est vaste et couvre des domaines tels que la santé et l’éducation, ses éventuels inconvénients ne peuvent être ignorés. Talcôve de Haywood, PDG d'une organisation de cybersécurité, met en garde les seniors contre l'utilisation croissante de l'IA dans les stratagèmes de fraude amoureuse, les tentatives d'escroquerie aux rançons et la fraude fiscale contre le gouvernement.

Talcove a déclaré qu'un grand nombre de personnes se consacrent au développement définitif de cette technologie et travaillent sans relâche. D’un autre côté, il existe également un groupe également dédié à l’application de ses compétences en cas de baisse, en utilisant l’IA pour perfectionnez vos pitreries et exploitez les personnes âgées et les personnes âgées. Dans cette optique, voici quelques points pour vous aider à vous protéger et également à protéger les personnes qui ont besoin de ces directives :

  • Escroqueries romantiques: Grâce aux progrès de l'intelligence artificielle, les escrocs peuvent désormais créer des images visuelles extrêmement réelles. Ils ont également la capacité de générer une voix conçue pour attirer une victime spécifique. Ces images et voix réalistes sont utilisées pour persuader la victime de participer à des visioconférences. Ici, le conseil est de toujours confirmer la véracité de la photo ou de la vidéo, en la comparant avec d'autres médias de la personne elle-même ou même en passant des appels en direct ;
  • Faux sauvetage: Sur de nombreuses plateformes de médias sociaux, les gens diffusent de courtes vidéos dans lesquelles leur voix est enregistrée. Un fraudeur peut utiliser l'un de ces enregistrements pour créer une copie extrêmement réaliste de la voix de la personne. De cette façon, l’escroc peut imiter la voix d’un enfant, d’un petit-enfant ou d’un autre membre de la famille pour mener une conversation. Pendant la conversation, posez des questions précises et essayez de confirmer l’identité de la personne qui appelle. Parfois, la voix à elle seule n’indique pas que cette personne est celle qu’elle prétend être ;
  • Pensez avant de cliquer: La vieille astuce consistant à cliquer sur des liens peut également être associée à l’intelligence artificielle. Il est important d'être prudent lors de l'ouverture de liens, que ce soit par e-mail ou par SMS. Si l'expéditeur n'est pas reconnu, évitez de cliquer sur le lien. N'oubliez pas que nos smartphones sont aussi des ordinateurs. Un simple clic sur un lien suspect peut entraîner le téléchargement de logiciels malveillants sur votre appareil.
  • Faites confiance à votre intuition : L’intelligence artificielle peut créer des messages qui semblent provenir de personnes que vous connaissez, en utilisant des informations accessibles au public. Cela augmente le risque de tomber dans le piège des escroqueries. Méfiez-vous des courriels et des messages non sollicités qui demandent des informations personnelles, même s'ils semblent légitimes. Faites confiance à votre intuition lorsque vous remarquez des signaux d'alarme, tels que des fautes d'orthographe, un formatage étrange ou répétitif. En cas de doute, contactez l'entreprise ou la personne directement par téléphone, et non par e-mail, pour confirmer l'authenticité ;
  • Gardez votre logiciel à jour : L'intelligence artificielle peut également identifier les appareils vulnérables en vérifiant les versions des logiciels ou les failles de sécurité. Pour assurer la sécurité de vos appareils, gardez toujours votre appareil (smartphone, ordinateur portable, tablette, etc.), vos logiciels et vos applications à jour. Cela permet de se protéger contre les exploits potentiels de logiciels malveillants.

Comment protéger les personnes âgées

Les personnes de plus de 50 ans sont les plus trompées par les photos et vidéos générées avec l’IA. La recherche révèle que des problèmes tels que le déclin cognitif et le manque de connaissances sur le sujet rendent difficile la distinction entre le vrai et le « faux » parmi les membres de la génération X.
Les fausses images et les fausses vidéos trompent souvent les personnes âgées, notamment sur les réseaux sociaux. Image : vérifié.org

Malgré les difficultés liées à l'identification des faux contenus (faux nouvelles) à mesure qu'ils prolifèrent en ligne, les seniors ont souvent une vision différente de la situation dans son ensemble. En fait, ils sont peut-être plus susceptibles que les jeunes générations de reconnaître les dangers du contenu généré par l’IA.

Une enquête de Sondage MITRE-Harris, impliquant plus de 2.000 XNUMX personnes, a indiqué qu'une plus grande partie des Les baby-boomers (né en 1946 et 1964) et Génération X (1965 à 1980) s'intéresse aux conséquences de deepfakes — des effets et des retouches sur les photos et les vidéos assez difficiles à discerner — par rapport aux participants au Génération Z (1997 à 2012) et le Génération Y (aussi connu sous le nom Millénials, né entre 1981 et 1996).

Les groupes d’âge plus âgés comptaient une proportion plus élevée de participants qui préconisaient une réglementation de la technologie de l’IA et un investissement plus important de la part de l’industrie technologique pour protéger le public. La recherche a également révélé que les personnes âgées peuvent distinguer avec plus de précision les faux titres et les fausses histoires par rapport aux jeunes adultes, ou du moins les identifier à des taux similaires.

Les personnes âgées ont également tendance à consommer plus de nouvelles que leurs pairs plus jeunes et peuvent avoir accumulé des connaissances approfondies sur des sujets spécifiques tout au long de leur vie, ce qui rend plus difficile leur tromperie.

Os escrocs utilisent des outils d’IA générative de plus en plus sophistiqués pour cibler les personnes âgées. Ils peuvent utiliser des audios et des images deepfake extraits des réseaux sociaux pour simuler un membre de la famille appelant et demandant de l'argent, ou encore falsifiant l'apparence d'un proche lors d'un appel vidéo.

De fausses vidéos, audio et images peuvent également influencer électeurs les personnes âgées avant les élections. Cela peut être encore plus préjudiciable, puisque les personnes dans la cinquantaine ou plus ont tendance à constituer la majorité des électeurs dans des pays comme le Brésil lui-même.

Pour aider les personnes âgées dans leur vie, Hickerson a souligné l’importance de diffuser des informations sur l’IA générative et les risques qu’elle peut poser en ligne. Une façon de commencer à les éduquer est mettre en évidence les caractéristiques de ces images qui sont clairement fausses, comme des textures trop lisses, des dents d'apparence étrange ou des motifs qui se répètent de manière transparente sur les arrière-plans des photos.

Elle ajoute que nous pouvons également clarifier ce que nous savons et ce que nous ne savons pas sur les algorithmes des médias sociaux et comment ils affectent la population âgée. Il faut également se rappeler que la désinformation peut même provenir des amis et de la famille.

Aussi réaliste soit-elle, cette image n’est pas une photo. Il a été entièrement généré par l’IA en quelques millisecondes. Image : cette personne n’existe pas
Aussi réaliste soit-elle, cette image n’est pas une photo. Il a été entièrement généré par l’IA en quelques millisecondes. Image : Cette personne n’existe pas

Avec l'avancement de deepfakes et d'autres créations d'IA chaque jour, même les experts en technologie les plus expérimentés peuvent avoir du mal à les identifier. Même si vous vous considérez comme plutôt compétent, ces modèles peuvent être déconcertants. Le site Web Cette personne n'existe pas, par exemple, propose des photos incroyablement convaincantes de faux visages créés par l’IA, souvent sans signes évidents de leurs origines informatiques.

Bien que les chercheurs et les entreprises technologiques aient développé des algorithmes pour détecter automatiquement les faux médias, ils ne sont pas infaillibles et les modèles d’IA générative en constante évolution ont tendance à les surpasser. L'une des IA les plus connues en matière de génération d'images, la À mi-parcours, a longtemps dû relever des défis pour créer des mains réalistes, avant de finalement réussir avec une nouvelle version sortie il y a quelques mois. Pour faire face à la vague croissante de faux contenus imperceptibles et à ses conséquences sociales, Hickerson a souligné l’importance de la réglementation et de la responsabilité des entreprises.

Pour en savoir plus à ce sujet et sur d'autres actualités, rendez-vous sur TRIO Showmetech, votre trio hebdomadaire d'actualités tech :

Et vous, que pensez-vous de cette vague de désinformation générée par l’IA ? Avez-vous déjà été dans une situation similaire ? Dites-nous Commenter!

Voir aussi:

Les touristes pourront désormais voyager en ballon dans l'espace dans 2025.

Avec des informations de : The Daily Beast, NORC, NCBI e American Legion

Revu par Glaucon Vital le 26/3/24.


En savoir plus sur Showmetech

Inscrivez-vous pour recevoir nos dernières actualités par email.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

Related posts