50세 이상의 사람들은 AI로 생성된 사진과 비디오에 가장 속는다. 연구에 따르면 인지 저하 및 해당 주제에 대한 지식 부족과 같은 문제로 인해 x세대 구성원 사이에서 진짜와 "가짜"를 구별하기가 어려워지는 것으로 나타났습니다.

50세 이상은 AI로 만든 사진·동영상에 가장 속는다

루카스 고메스 아바타
연구에 따르면 인지 저하 및 주제에 대한 지식 부족과 같은 문제로 인해 X세대 구성원이 진짜와 "가짜"를 구별하기가 어려워지는 것으로 나타났습니다.

AI로 생성된 사진 및 동영상(인공 지능)는 한동안 인터넷 전체에서 화제가 되었습니다. 아바타를 만들든, 특별한 데이트 영상을 만들든, 이러한 창작물은 일상적인 온라인 생활에 많이 존재하지만 실제 이미지와 혼동되는 경우가 많아 가짜 뉴스의 확산으로 이어질 수 있습니다. 가짜 뉴스. 가장 큰 영향을 받는 청중 중 하나는 연령대에 속합니다. 50년 이상특히 노인이 많으며, AI가 생성한 오해의 소지가 있는 이미지가 가장 많이 포함된 곳 중 하나는 페이스북. 해당 주제에 대해 발표된 연구의 일부 데이터를 확인하세요.

연구 데이터

AI가 생성한 이미지는 분명할 수 있지만 모든 사람에게 그런 것은 아닙니다. 이미지: news18 생성적 IAS 사진 및 비디오는 IAS로 생성되었습니다.
AI가 조작한 이미지는 명백할 수 있지만 모든 사람에게 그런 것은 아닙니다. 이미지: 뉴스18

생성된 콘텐츠 인텔리 전시 아 인공 특히 소셜 미디어에서 상황에 맞는 이미지로 인기가 높아지고 있습니다. 기괴한 계곡 - 어디에 기괴한 계곡. 실제처럼 보이지만, 보는 이에게 불편함을 주는 인위적인 요소를 담고 있는 이미지를 뜻하는 콘셉트다. 언캐니 밸리의 이미지는 실제 인간과의 유사성이 높음에도 불구하고 자연과 매우 유사하면서도 인공적인 특성을 지닌다. 이러한 인식은 분명히 가장 많은 것과 관련이 있습니다. 젊은.

노인들은 인공지능이 생성한 미디어에서 이러한 이상하고 부자연스러운 요소를 식별하는 데 어려움을 겪기 때문에 속일 가능성이 더 높습니다. AI가 제작한 예술 작품 모든 사람에게 그렇게 분명하지는 않습니다, 연구에 따르면 50세 이상의 사람들이 소셜 미디어에서 이러한 시각적 트릭에 한꺼번에 빠지고 있는 것으로 나타났습니다.

같은 플랫폼 페이스북 젊은 사용자가 Instagram이나 틱톡 서비스. 페이스북 연구원의 기사에 따르면 페이스북의 알고리즘은 제품을 판매하고 팔로어를 유치할 목적으로 AI가 생성한 이미지를 사용자의 피드에 의도적으로 전달해 왔다고 합니다. 스탠포드 대학교 그리고 의한 조지타운대학교.

이미지 생성기가 공개된 지 약 2년이 지났기 때문에 과학자들은 인공 지능이 생성한 예술이 미치는 심리적 영향에 대해 아직 명확한 답을 얻지 못했습니다. 그러나 나이 많은 친구와 친척이 혼란스러워하는 이유를 이해하면 그들이 사기나 잘못된 정보의 피해자가 되는 것을 방지하는 데 도움이 되는 중요한 단서를 얻을 수 있습니다.

인지적 노화 과정은 영향을 주기는 하지만 결정 요인은 아닙니다. 이미지: 흥미로운 엔지니어링
인공지능을 이용한 사기가 자행될 수 있으므로 주의가 매우 중요합니다. 이미지: 흥미로운 엔지니어링

Google과 같은 기술 회사는 내부 테스트 중에 노년층 사용자를 무시하는 경향이 있기 때문에 이 시나리오가 어떻게 진행되는지 이해하는 것이 중요합니다. 비욘 허먼, 인지 신경과학자 토론토 대학교 노화가 의사소통에 미치는 영향을 연구합니다.

노화 과정, 특히 인지 과정이 현재 기술과의 비호환성에 대한 가장 확실한 설명처럼 보일 수 있지만, 초기 연구에서는 AI에 대한 경험과 익숙함이 부족하여 젊은 청중과 가장 나이가 많은 청중의 이해를 설명하는 데 도움이 될 수 있다고 제안합니다. 1.300세 이상 북미 성인 약 50명을 대상으로 실시한 설문 조사에 따르면 참가자 중 17%는 AI에 대해 읽거나 들어본 적이 있다고 말했습니다..

지금까지 AI에 대한 노인들의 인식을 분석하기 위한 몇몇 실험은 페이스북에서 일어나는 일과 유사한 것으로 보인다. 최근 저널에 발표된 연구에서 과학 보고서, 과학자들은 201명의 참가자에게 AI와 인간이 생성한 이미지를 혼합하여 보여주고 연령, 성별, 기술에 대한 태도와 같은 요소를 기반으로 반응을 평가했습니다. 연구팀은 나이가 많은 참가자들이 AI가 생성한 이미지가 인간이 만든 것이라고 믿을 가능성이 더 높다는 것을 발견했습니다.

AI 생성 콘텐츠에 대한 사람들의 인식에 대한 연구는 제한적이지만, 연구자들은 AI 생성 오디오에서도 유사한 결과를 발견했습니다. 작년에 Herrmann은 노인들에게 다음과 같은 증상이 있다고 보고했습니다. 인간이 생성한 음성과 AI가 생성한 음성을 구별하는 능력 감소 젊은 사람들에 비해.

일반적으로, 시몬 그라시니노르웨이 베르겐 대학의 심리학자인 는 모든 유형의 AI 생성 미디어가 더 광범위한 "전반적 효과"로 인해 노년층 시청자를 더 쉽게 오도할 수 있다고 믿습니다. Herrmann과 Grassini는 모두 노인 세대가 AI 생성 콘텐츠의 특성에 대해 배우지 못했을 수도 있고 일상 생활에서 덜 자주 접하게 되었을 수도 있다고 제안합니다. 가장 취약한 해당 콘텐츠가 화면에 나타날 때.

인지 능력 감소와 청력 상실(AI 생성 오디오의 경우)이 영향을 미칠 수 있지만 Grassini는 또한 이 효과가 40~50세 사이의 사람들에게도 발생했다고 언급했습니다. 젊은이들은 온라인 잘못된 정보의 시대에 성장했으며 조작된 사진과 비디오에 익숙하다고 Grassini는 덧붙였습니다.

가짜 AI 생성 이미지로부터 자신을 보호하는 방법

모든 기술은 우리의 발전을 환영하지만 사기 및 사기 가능성에 유의해야 합니다. 이미지: 아조로봇공학
모든 기술은 우리의 발전을 환영하지만 사기 및 사기 가능성에 유의해야 합니다. 이미지: AZoRobotics

A 인공지능의 급속한 발전 이는 확실히 사회에 많은 이익을 가져다 주지만, 이 콘텐츠에서 볼 수 있듯이 이 기술이 우리에게 미칠 수 있는 결과를 계속 주시해야 합니다. 건강, 교육 등의 분야를 포괄할 정도로 잠재력이 넓지만, 발생할 수 있는 단점도 무시할 수 없습니다. 헤이우드 탈코브사이버 보안 조직의 CEO인 는 로맨스 사기 계획, 몸값 사기 시도, 정부를 상대로 한 세금 사기에 AI 사용이 증가하고 있다고 노인들에게 경고합니다.

Talcove는 이 기술을 영원히 개발하기 위해 헌신하고 쉬지 않고 일하는 많은 사람들이 있다고 말했습니다. 반면에 AI를 활용하여 자신의 기술을 단점에 적용하는 데 똑같이 전념하는 그룹도 있습니다. 장난을 연마하고 노인과 노인을 착취하십시오.. 이를 염두에 두고 자신을 보호하고 이러한 지침이 필요한 사람들을 보호하는 데 도움이 되는 몇 가지 사항은 다음과 같습니다.

  • 로맨틱 사기: 인공 지능의 발전으로 사기꾼은 이제 매우 실제처럼 보이는 시각적 이미지를 만들 수 있습니다. 그들은 또한 특정 피해자를 유인하기 위해 고안된 목소리를 생성하는 능력을 가지고 있습니다. 이러한 사실적인 이미지와 음성은 피해자가 화상회의에 참여하도록 설득하는 데 사용됩니다. 여기에서 중요한 점은 항상 사진이나 비디오의 진실성을 확인하고, 직접 촬영한 다른 미디어와 비교하거나 실시간 통화를 하는 것입니다.
  • 가짜 구출: 많은 소셜 미디어 플랫폼에는 사람들의 목소리가 녹음된 짧은 동영상이 있습니다. 사기꾼은 이러한 녹음 중 하나를 사용하여 사람의 목소리를 매우 사실적으로 복제할 수 있습니다. 이런 식으로 사기꾼은 자녀, 손주 또는 다른 가족 구성원의 목소리를 흉내내어 대화를 나눌 수 있습니다. 대화 중에 구체적인 질문을 하고 통화 중인 사람의 신원을 확인하도록 노력하십시오. 때로는 목소리만으로는 그 사람이 자신이 누구인지 나타내는 것이 아닙니다.
  • 클릭하기 전에 생각해보세요: 링크를 클릭하는 오래된 수법도 인공지능과 연관될 수 있습니다. 이메일이나 문자 메시지를 통해 링크를 열 때는 주의하는 것이 중요합니다. 보낸 사람이 인식되지 않으면 링크를 클릭하지 마세요. 우리의 스마트폰도 컴퓨터라는 것을 기억하세요. 의심스러운 링크를 한 번 클릭하면 악성 코드가 장치에 다운로드될 수 있습니다.
  • 당신의 직감을 믿으세요: 인공지능은 공개적으로 이용 가능한 정보를 사용하여 당신이 아는 사람들로부터 온 것처럼 보이는 메시지를 만들 수 있습니다. 이로 인해 사기에 빠질 위험이 높아집니다. 합법적인 것처럼 보이더라도 개인정보를 요구하는 원치 않는 이메일과 메시지를 조심하세요. 철자 오류, 이상하거나 반복적인 형식과 같은 위험 신호를 발견하면 직관을 믿으십시오. 의심스러운 경우에는 이메일이 아닌 전화로 회사나 개인에게 직접 연락하여 진위 여부를 확인하십시오.
  • 소프트웨어를 최신 상태로 유지하세요. 인공지능은 소프트웨어 버전이나 보안 결함을 확인하여 취약한 장치를 식별할 수도 있습니다. 장치를 안전하게 유지하려면 장치(스마트폰, 노트북, 태블릿 등), 소프트웨어 및 애플리케이션을 항상 최신 상태로 유지하십시오. 이는 잠재적인 맬웨어 악용으로부터 보호하는 데 도움이 됩니다.

노인을 보호하는 방법

50세 이상의 사람들은 AI로 생성된 사진과 비디오에 가장 속는다. 연구에 따르면 인지 저하 및 해당 주제에 대한 지식 부족과 같은 문제로 인해 x세대 구성원 사이에서 진짜와 "가짜"를 구별하기가 어려워지는 것으로 나타났습니다.
가짜 이미지와 가짜 비디오는 특히 소셜 미디어에서 노년층을 속이는 경우가 많습니다. 이미지: Verified.org

가짜 콘텐츠를 식별하는 데 어려움이 있음에도 불구하고(모조품 news) 온라인에서 확산되면서 노인들은 더 큰 그림에 대해 다른 견해를 갖는 경우가 많습니다. 실제로 그들은 젊은 세대보다 AI 생성 콘텐츠의 위험성을 더 잘 인식할 가능성이 높습니다.

설문 조사 MITRE-해리스 여론조사2.000명 이상의 사람들이 참여한 것으로 나타났습니다. 베이비 붐 세대 (1946년과 1964년생) X세대 (1965~1980)은 다음의 결과에 관심을 갖고 있습니다. 딥 페이크 — 사진 및 비디오의 효과 및 편집은 식별하기 매우 어렵습니다. Z세대 (1997년부터 2012년) 그리고 Y세대 (또한 ~으로 알려진 천년 왕국, 1981년부터 1996년 사이 출생).

연령대가 높을수록 AI 기술 규제와 대중 보호를 위한 기술 산업의 투자 확대를 옹호하는 참여자의 비율이 더 높았습니다. 이 연구는 또한 노인들이 젊은 성인들에 비해 거짓 헤드라인과 기사를 더 정확하게 구별하거나 적어도 비슷한 비율로 식별할 수 있다는 것을 보여주었습니다.

노인들도 그런 경향이 있다. 더 많은 뉴스를 소비하다 젊은 동료들보다 일생 동안 특정 주제에 대한 광범위한 지식을 축적했을 수 있으므로 속이는 것이 더 어렵습니다.

Os 골피 스타 노인을 대상으로 점점 더 정교해지는 생성 AI 도구를 사용해 왔습니다. 오디오와 이미지를 사용할 수 있습니다. 딥 페이크 가족 구성원이 전화를 걸어 돈을 요구하거나 심지어 화상 통화에서 친척의 모습을 위조하는 모습을 시뮬레이션하기 위해 소셜 네트워크에서 추출되었습니다.

가짜 비디오, 오디오 및 이미지도 영향을 미칠 수 있습니다. 유권자 선거를 앞둔 노인들. 브라질과 같은 국가에서는 50대 이상의 유권자가 유권자의 대다수를 차지하는 경향이 있기 때문에 이는 훨씬 더 해로울 수 있습니다.

노인들의 삶을 돕기 위해 Hickerson은 생성 AI에 대한 정보와 온라인에서 발생할 수 있는 위험에 대한 정보를 전파하는 것이 중요하다고 강조했습니다. 교육을 시작하는 한 가지 방법은 다음과 같습니다. 명백히 거짓인 이미지의 특징을 강조, 지나치게 매끄러운 질감, 이상하게 보이는 치아 또는 사진 배경에서 매끄럽게 반복되는 패턴 등이 있습니다.

그녀는 또한 소셜 미디어 알고리즘에 대해 우리가 알고 있는 것과 모르는 것이 무엇인지, 그리고 이것이 노인 인구에 어떤 영향을 미치는지 명확히 할 수 있다고 덧붙였습니다. 잘못된 정보는 친구나 가족에게서도 나올 수 있다는 점을 기억하는 것도 중요합니다.

아무리 사실적이라 할지라도 이 이미지는 사진이 아닙니다. 그것은 밀리초 만에 완전히 AI로 생성되었습니다. 이미지: 이 사람은 존재하지 않습니다
아무리 사실적이라 할지라도 이 이미지는 사진이 아닙니다. AI에 의해 밀리초 만에 완전히 생성되었습니다. 이미지: 이 사람은 존재하지 않습니다

의 발전으로 딥 페이크 및 기타 AI 창작물이 매일 생성되기 때문에 가장 경험이 풍부한 기술 전문가라도 이를 식별하는 것이 어려울 수 있습니다. 자신이 꽤 지식이 풍부하다고 생각하더라도 이러한 모델은 당황스러울 수 있습니다. 웹 사이트 이 사람은 존재하지 않습니다예를 들어, AI가 만든 가짜 얼굴의 믿을 수 없을 만큼 설득력 있는 사진을 제공하는데, 종종 계산상의 출처에 대한 명확한 징후가 없습니다.

연구원과 기술 회사는 가짜 미디어를 자동으로 감지하는 알고리즘을 개발했지만 오류가 없는 것은 아니며 끊임없이 진화하는 생성 AI 모델이 이를 능가하는 경향이 있습니다. 이미지 생성 분야에서 가장 유명한 AI 중 하나인 중도, 현실적인 손을 만들기 위해 오랜 시간 동안 도전에 직면했고 마침내 몇 달 전에 출시된 새 버전으로 성공을 거두었습니다. 눈에 띄지 않는 거짓 콘텐츠의 증가하는 물결과 그에 따른 사회적 결과를 해결하기 위해 Hickerson은 규제와 기업 책임의 중요성을 강조했습니다.

이 소식과 기타 뉴스에 대해 자세히 알아보세요. 쇼메테크 트리오, 주간 기술 뉴스 트리오:

그리고 당신은 AI가 생성한 잘못된 정보의 물결에 대해 어떻게 생각하시나요? 비슷한 상황에 처한 적이 있습니까? 우리에게 말해주세요 논평!

참조 :

관광객들은 이제 풍선을 타고 우주로 여행하다 2025에서.

정보: 매일 야수, NORC, NCBI e 미국 군단

검토자 글라우콘 바이탈 26년 3월 24일.


쇼메텍에 대해 자세히 알아보세요.

최신 뉴스를 이메일로 받아보시려면 등록하세요.

댓글을 남기

귀하의 이메일 주소는 공개되지 않습니다. 필수 필드가 표시되어 있습니다 *

관련 게시물