Index
Foto's en video's gegenereerd met AI (Kunstmatige intelligentie) zijn al een tijdje het onderwerp van gesprek op het hele internet. Of het nu gaat om het maken van een avatar of een speciale date-video, deze creaties zijn zeer aanwezig in het dagelijkse online leven, maar worden vaak verward met echte beelden, wat kan leiden tot de verspreiding van nepnieuws – de nep-nieuws. Een van de meest getroffen doelgroepen behoort tot de leeftijdsgroep over 50 jaar, vooral ouderen, en een van de plaatsen waar de meeste misleidende beelden voorkomen die door AI zijn gegenereerd, is de Facebook. Bekijk enkele gegevens uit gepubliceerde onderzoeken over dit onderwerp.
Onderzoek gegevens
De inhoud gegenereerd door inteligência kunstmatig is steeds populairder geworden, vooral op sociale media, met afbeeldingen die passen in de geheimzinnige vallei - Waar griezelige vallei. Dit concept verwijst naar beelden die echt lijken, maar kunstmatige elementen bevatten die ongemak veroorzaken bij degenen die ze zien. Ook al is er een grote gelijkenis met echte mensen, de beelden in de Uncanny Valley hebben een kunstmatig kenmerk, ook al lijken ze sterk op het natuurlijke. Deze perceptie houdt blijkbaar het meest verband met jong.
Oudere mensen hebben moeite met het identificeren van deze vreemde, onnatuurlijke elementen in door kunstmatige intelligentie gegenereerde media, waardoor de kans groter is dat ze worden misleid. Kunst geproduceerd door AI Het is niet voor iedereen zo vanzelfsprekendEn uit onderzoek blijkt dat vijftigplussers massaal trappen in deze visuele trucjes op sociale media.
Platformen zoals Facebook zijn steeds populairder geworden onder ouderen en senioren die op zoek zijn naar entertainment en gezelschap, omdat jongere gebruikers zijn gemigreerd naar modernere apps zoals Instagram of TikTok. Blijkbaar heeft het algoritme van Facebook opzettelijk door AI gegenereerde afbeeldingen naar de feeds van gebruikers gestuurd met als doel producten te verkopen en volgers aan te trekken, aldus een artikel van onderzoekers van Facebook. Stanford universiteit en Georgetown Universiteit.
Wetenschappers hebben nog steeds geen definitieve antwoorden over de psychologische impact van kunst gegenereerd door kunstmatige intelligentie, sinds beeldgeneratoren onlangs, ongeveer twee jaar geleden, openbaar werden. Maar als u begrijpt waarom oudere vrienden en familieleden zich misschien in de war voelen, kan dit belangrijke aanwijzingen opleveren om te voorkomen dat zij het slachtoffer worden van fraude of verkeerde informatie.
Het is belangrijk om te begrijpen hoe dit scenario zich afspeelt, omdat technologiebedrijven als Google de neiging hebben oudere gebruikers te negeren tijdens interne tests Björn Herrmann, cognitief neurowetenschapper bij Universiteit van Toronto waarin de impact van veroudering op communicatie wordt bestudeerd.
Ook al lijkt het verouderingsproces – vooral het cognitieve proces – de meest voor de hand liggende verklaring voor deze onverenigbaarheid met de huidige technologie, toch suggereert vroeg onderzoek dat een gebrek aan ervaring en bekendheid met AI het begrip onder jongere en oudste doelgroepen zou kunnen helpen verklaren. Uit het onderzoek, uitgevoerd onder bijna 1.300 Noord-Amerikaanse volwassenen van 50 jaar en ouder, blijkt dat alleen maar 17% van de deelnemers zei dat ze over AI hadden gelezen of gehoord.
Tot nu toe lijken de weinige experimenten om de perceptie van ouderen over AI te analyseren dicht in de buurt te komen van wat er op Facebook gebeurt. Dat blijkt uit een onderzoek dat onlangs in het tijdschrift is gepubliceerd Wetenschappelijke rapportentoonden wetenschappers 201 deelnemers een mix van AI- en door mensen gegenereerde beelden en beoordeelden hun reacties op basis van factoren zoals leeftijd, geslacht en houding ten opzichte van technologie. Het team ontdekte dat oudere deelnemers eerder geloofden dat de door AI gegenereerde beelden door mensen waren gemaakt.
Hoewel onderzoek naar de perceptie van mensen over door AI gegenereerde inhoud beperkt is, hebben onderzoekers vergelijkbare resultaten gevonden met door AI geproduceerde audio. Vorig jaar meldde Hermann dat oudere personen een verminderd vermogen om onderscheid te maken tussen door mensen gegenereerde spraak en door AI gegenereerde spraak vergeleken met jongere individuen.
In het algemeen, Simone Grassini, een psycholoog aan de Universiteit van Bergen in Noorwegen, is van mening dat elk type door AI gegenereerde media oudere kijkers gemakkelijker kan misleiden vanwege een breder ‘algemeen effect’. Zowel Hermann als Grassini suggereren dat oudere generaties misschien nog niet hebben geleerd over de kenmerken van door AI gegenereerde inhoud en deze in hun dagelijks leven minder vaak tegenkomen, waardoor ze meest kwetsbaar wanneer die inhoud op hun schermen verschijnt.
Vermindering van het cognitieve vermogen en gehoorverlies (in het geval van AI-gegenereerde audio) kunnen hun invloed hebben, maar Grassini merkte ook op dat dit effect ook optrad bij mensen tussen de veertig en vijftig jaar. Jongeren zijn opgegroeid in het tijdperk van online desinformatie en zijn gewend aan vervalste foto’s en video’s, aldus Grassini.
Hoe u uzelf kunt beschermen tegen nep-AI-gegenereerde afbeeldingen
A snelle evolutie van kunstmatige intelligentie het levert zeker veel voordelen op voor de samenleving, maar zoals je in deze inhoud kunt zien, moeten we de gevolgen die deze technologie voor ons kan veroorzaken in de gaten houden. Hoewel het potentieel ervan enorm is en gebieden als gezondheidszorg en onderwijs bestrijkt, kunnen de mogelijke nadelen niet worden genegeerd. Haywood Talkove, CEO van een cyberbeveiligingsorganisatie, waarschuwt senioren voor het toenemende gebruik van AI bij romantiekfraude, pogingen tot oplichting met losgeld en belastingfraude tegen de overheid.
Talcove verklaarde dat er een groot aantal mensen is die zich onvermoeibaar inzetten om deze technologie voorgoed te ontwikkelen. Aan de andere kant is er ook een groep die zich net zo wijdt aan het toepassen van hun vaardigheden op de negatieve kant, door gebruik te maken van AI scherp je capriolen aan en exploiteer oudere mensen en ouderen. Met dat in gedachten volgen hier enkele punten om u te helpen uzelf te beschermen en ook de mensen te beschermen die deze richtlijnen nodig hebben:
- Romantische oplichting: Dankzij de vooruitgang op het gebied van kunstmatige intelligentie kunnen oplichters nu visuele beelden maken die er extreem echt uitzien. Ze hebben ook het vermogen om een stem te genereren die is ontworpen om een specifiek slachtoffer aan te trekken. Deze realistische beelden en stemmen worden gebruikt om het slachtoffer te overtuigen deel te nemen aan videovergaderingen. Hier is de tip om altijd de waarheidsgetrouwheid van de foto of video te bevestigen, deze te vergelijken met andere media van de persoon zelf of zelfs live te bellen;
- Valse redding: Op veel sociale mediaplatforms hebben mensen korte video's waarin hun stem wordt opgenomen. Een fraudeur kan een van deze opnames gebruiken om een uiterst realistisch duplicaat van de stem van de persoon te maken. Zo kan de oplichter de stem van een kind, kleinkind of ander familielid imiteren om een gesprek te voeren. Stel tijdens het gesprek specifieke vragen en probeer de identiteit van de gesprekspartner te bevestigen. Soms is de stem alleen geen indicatie dat die persoon is wie hij zegt te zijn;
- Denk na voordat je klikt: De oude truc van het klikken op links kan ook in verband worden gebracht met kunstmatige intelligentie. Het is belangrijk om voorzichtig te zijn bij het openen van links, zowel via e-mail als via sms. Als de afzender niet wordt herkend, klik dan niet op de link. Vergeet niet dat onze smartphones ook computers zijn. Een enkele klik op een verdachte link kan ertoe leiden dat malware naar uw apparaat wordt gedownload.
- Vertrouw op je intuïtie: Kunstmatige intelligentie kan berichten creëren die afkomstig lijken te zijn van mensen die u kent, met behulp van openbaar beschikbare informatie. Dit vergroot het risico om in oplichting terecht te komen. Wees op uw hoede voor ongevraagde e-mails en berichten waarin om persoonlijke informatie wordt gevraagd, zelfs als deze legitiem lijken. Vertrouw op uw intuïtie wanneer u waarschuwingssignalen opmerkt, zoals spelfouten, vreemde of repetitieve opmaak. Neem bij twijfel rechtstreeks contact op met het bedrijf of de persoon via de telefoon, en niet per e-mail, om de authenticiteit te bevestigen;
- Houd uw software up-to-date: Kunstmatige intelligentie kan ook kwetsbare apparaten identificeren door softwareversies of beveiligingsfouten te controleren. Om uw apparaten veilig te houden, moet u uw apparaat (smartphone, notebook, tablet, enz.), software en applicaties altijd up-to-date houden. Dit helpt beschermen tegen mogelijke malware-exploits.
Hoe ouderen te beschermen
Ondanks de uitdagingen bij het identificeren van nepinhoud (nep nieuws) Naarmate ze zich online verspreiden, hebben senioren vaak een andere kijk op het grotere geheel. Het is zelfs waarschijnlijker dat zij de gevaren van door AI gegenereerde inhoud onderkennen dan jongere generaties.
Een onderzoek door MITRE-Harris Poll, waarbij ruim 2.000 mensen betrokken waren, gaf aan dat een groter deel van Babyboomers (geboren in 1946 en 1964) en Generatie X (1965 tot 1980) houdt zich bezig met de gevolgen van deepfakes — effecten en bewerkingen in foto's en video's die vrij moeilijk te onderscheiden zijn — vergeleken met deelnemers aan de Generatie Z (1997 tot 2012) en de Y generatie (ook gekend als Millenials, geboren tussen 1981 en 1996).
Oudere leeftijdsgroepen hadden een groter percentage deelnemers die pleitten voor regulering van AI-technologie en grotere investeringen door de technologie-industrie om het publiek te beschermen. Uit het onderzoek bleek ook dat oudere volwassenen nauwkeuriger onderscheid kunnen maken tussen valse krantenkoppen en verhalen dan jongere volwassenen, of deze op zijn minst in vergelijkbare mate kunnen identificeren.
Oudere volwassenen hebben dat ook vaak meer nieuws consumeren dan hun jongere leeftijdsgenoten en hebben mogelijk gedurende hun hele leven uitgebreide kennis over specifieke onderwerpen verzameld, wat het moeilijker maakt om hen te misleiden.
Os golpista's gebruiken steeds geavanceerdere generatieve AI-tools om zich op oudere volwassenen te richten. Ze kunnen audio en afbeeldingen gebruiken deepfake geëxtraheerd uit sociale netwerken om een familielid te simuleren dat belt en om geld vraagt, of zelfs het uiterlijk van een familielid in een videogesprek te vervalsen.
Valse video's, audio en afbeeldingen kunnen ook van invloed zijn kiezers ouderen vóór de verkiezingen. Dit kan zelfs nog schadelijker zijn, omdat vijftigers of ouder in landen als Brazilië zelf de meerderheid van de kiezers vormen.
Om senioren in hun leven te helpen benadrukte Hickerson het belang van het verspreiden van informatie over generatieve AI en de risico's die dit online kan opleveren. Eén manier om ze te onderwijzen is kenmerken van deze beelden benadrukken die duidelijk vals zijn, zoals overdreven gladde texturen, vreemd uitziende tanden of patronen die zich naadloos herhalen op fotoachtergronden.
Ze voegt eraan toe dat we ook kunnen verduidelijken wat we wel en niet weten over algoritmen voor sociale media en hoe deze de oudere bevolking beïnvloeden. Het hoort ook bij het bedenken dat verkeerde informatie zelfs van vrienden en familie kan komen.
Met de opmars van deepfakes en andere AI-creaties die elke dag worden gemaakt, kan het zelfs voor de meest ervaren technologie-experts moeilijk zijn om ze te identificeren. Zelfs als je jezelf als behoorlijk deskundig beschouwt, kunnen deze modellen verontrustend zijn. De website Deze persoon bestaat niet, biedt bijvoorbeeld ongelooflijk overtuigende foto's van door AI gemaakte nepgezichten, vaak zonder duidelijke tekenen van hun computationele oorsprong.
Hoewel onderzoekers en technologiebedrijven algoritmen hebben ontwikkeld om nepmedia automatisch te detecteren, zijn ze niet onfeilbaar, en voortdurend evoluerende generatieve AI-modellen presteren doorgaans beter dan deze. Een van de beroemdste AI's op het gebied van beeldgeneratie, de halverwege de reis, stond lange tijd voor uitdagingen om realistische handen te creëren, voordat hij uiteindelijk succes boekte met een nieuwe versie die een paar maanden geleden werd uitgebracht. Om de groeiende golf van onwaarneembare valse inhoud en de sociale gevolgen ervan aan te pakken, benadrukte Hickerson het belang van regelgeving en bedrijfsverantwoordelijkheid.
Lees meer over dit en ander nieuws op Showmetech-TRIO, uw wekelijkse technieuwstrio:
En jij, wat vind jij van deze golf van door AI gegenereerde desinformatie? Heeft u ooit in een soortgelijke situatie gezeten? Vertel ons Commentaar!
Zie ook:
Toeristen kunnen dat nu wel per ballon de ruimte in reizen in 2025.
Met informatie van: The Daily Beast, NORC, NCBI e Amerikaans Legioen
Beoordeeld door Glaucon Vital op 26-3-24.
Ontdek meer over Showmetech
Meld u aan om ons laatste nieuws per e-mail te ontvangen.