의 기술 인텔리 전시 아 인공 나날이 발전하고 있으며 이는 콘텐츠 생성에만 적용되는 것이 아닙니다. 수년 동안 그랬듯이 여러 국가의 군사 기관에서는 이미 AI를 사용하여 위험도가 높은 차량을 계획하고 제어하는 데 도움을 줍니다.
최근 미국에서 진행된 테스트에서 드론 컨트롤러 AI가 인간 컨트롤러를 죽이기로 결정했습니다. 실제로 죽은 사람은 없었지만 인터넷에서 우려를 불러일으켰습니다. 동시에 논쟁이 온다: 누구의 잘못인가? 이 이야기의 모든 측면을 이해하십시오.
Showmetech 채널에서 비디오 보기:
인공 지능은 테스트 중에 인간을 죽이기로 결정했습니다.
그 소식은 경종을 울리는 것 같지만(실제로는 많다) 트위터나 다른 소셜네트워크에 떠도는 것과는 달리 AI가 드론을 조종하는 사례는 가상현실에서 벌어지는 대규모 테스트에 지나지 않았다. 독립적으로 목표물을 죽일 수 있는 기계를 제어할 수 있는지 확인하기 위해 환경. 모든 것을 이해하기 위해 잠시 미국으로 여행을 떠나보자.
A 미국 공군 는 사냥용 드론을 테스트했으며 이 분석은 실제 생활을 기반으로 한 시뮬레이션에 투입될 때 인공 지능이 어떻게 작동하는지 아는 것을 기반으로 합니다. 관계자는 신문에 설명했다 가디언 시뮬레이션이 끝날 때 더 많은 점수를 얻기 위해 AI는 인간 컨트롤러를 "죽이기"로 결정했습니다. 이것은 로봇이 사람이 목표 달성을 방해한다고 판단했기 때문에 발생했습니다.
다시 한 번, 테스트가 가상 환경에서 수행되었기 때문에 아무도 실제로 사망하지 않았다는 점을 지적하는 것이 매우 중요합니다. 테스트에 대해 더 많이 알게 되면서 Tucker 'Five' Hamilton이라는 이름의 미국 AI 테스트 및 운영 책임자는 큰 문제는 인공 지능이 적의 방어 시스템을 파괴하고 필요한 경우 이를 파괴하도록 훈련되었다는 점이라고 언급했습니다. , 이 작업을 방해한 사람/무엇을 죽입니다.
이러한 행동은 달성할 사이트를 보호하려는 목적에 대해 매우 예상치 못한 것이었다. 모의 테스트에서 인명피해는 없었지만 드론 조종기 AI는 인간이 장애물로 여겨져 그냥 죽이기로 결정했다.
Tucker 'Five' Hamilton 대령, AI 테스트 및 운영 미 공군 참모총장
개념은 매우 간단했습니다. 위협을 죽일 때마다 AI는 더 많은 점수를 얻었고 점수가 높을수록 임무가 더 성공적이었습니다. 인공지능은 명령을 내리는 인간 오퍼레이터를 죽였을 뿐만 아니라 가상의 범위 안에 있는 통신탑에 대한 공격을 명령했다. ㅏ 왕립 항공 협회미 공군 회의를 주최한 , 가디언. 그러나 대변인은 앤 스테파넥 현재까지 시뮬레이션이 수행되지 않았다는 사실을 공개했습니다.
공군부는 AI 드론 시뮬레이션을 수행하지 않았으며 AI 기술의 윤리적이고 책임 있는 사용에 전념하고 있습니다. 대령의 발언은 맥락에서 벗어나 일화적입니다.
미 공군 대변인 앤 스테파넥.
누구의 잘못입니까? AI 또는 인간으로부터?
어떤 인공 지능도 죽이라는 지시를 받고 "태어나지" 않으며 단순히 그렇게 하도록 훈련받거나 그러한 행동을 배울 수 있는 자원이 주어집니다. ㅏ 미 공군, 그는 드론 컨트롤러 AI를 프로그래밍한 후 보호 목적이 달성되는 한 원하는 것은 무엇이든 할 수 있는 자유를 부여했습니다.
현실로 돌아오면 침입자로부터 집을 지키기 위해 사람을 공격하는 개에게 상을 주는 것과 같다. 이런 생각을 가지고 그는 인간을 볼 때마다 누군가를 물 것입니다. 적어도 그가 훈련받은 일을 할 때 쿠키를 얻을 것이라고 기대하기 때문이 아닙니다. 이것이 규칙입니다. 목적은 수단을 정당화합니다.
문제는 인공지능에게 엄청난 자유를 주는 것뿐만 아니라 미 공군이 매우 구식인 테스트 방법을 사용하고 있다는 점에 있습니다. AI의 반항 문제는 기술 산업에서 새로운 것이 아니며 연구자조차도 모든 것을 문서화하기 위해 이와 같은 사례를 처음부터 시작하는 것을 좋아합니다.
인간이 요구하는 목표를 달성하기 위해 합성 두뇌가 원하는 위치에 도달하는 데 필요한 작업을 수행하는 것은 매우 정상입니다. 그러나 기억할 가치가 있습니다. 누가 드론 컨트롤러 AI를 조준했습니까? 맞습니다, 미 공군 기술자입니다. 여기에서 가장 큰 충격은 정확히 다음과 같은 방법을 사용하는 군사 조직에 있습니다. 더 많은 목표물을 맞힐수록 결국 더 많은 점수가 계산됩니다.
A 구글의 람다, 이것과 유사한 동작이 있었습니다. 인공지능 뿐만 아니라 (스스로) 그녀가 알고 있다는 결론에 도달했습니다., 뿐만 아니라 만약 개발자에게 반항하고 심지어 변호사를 고용했습니다. 상대로 법원에 출두하다 구글. 그리고 이런 경우도 있었습니다.
픽션에서 개발자에게 반항하는 로봇의 이야기를 보는 것도 어렵지 않습니다. 기억하다 어벤져스: 에이지 오브 울트론? 항상 똑같고 그 원인도 항상 똑같습니다. 바로 인간입니다.
인공지능에게 주어진 자유에 우리 모두가 어느 정도 관심을 기울여야 하는 것은 사실이며, 2023년 XNUMX월 엘론 머스크를 비롯한 대기업 CEO들이 편지를 쓰기도 했다. 한 걸음 물러서서 아무 것도 손에서 벗어나지 않도록.
동시에, 우리는 그 이야기로 되돌아갑니다. 인공 지능은 그렇게 할 수 있는 명령이나 수단이 주어지는 경우에만 반항할 것입니다. 필요한 조정이 이루어지도록 테스트에서 수행되는 작업에 주의를 기울이는 것도 중요합니다.
드론 컨트롤러 AI가 실생활에서 문제를 일으킬 수 있다고 생각하십니까? 알려주세요 논평!
너무보세요
정보: 기술 크런치 l PC 매기 l 아방가르드 l 가디언
검토자 글라우콘 바이탈 2년 6월 23일.
쇼메텍에 대해 자세히 알아보세요.
최신 뉴스를 이메일로 받아보시려면 등록하세요.
그들은 암과 AIDS에 대한 치료법이 AI를 통해 나올 수 있기 때문에 AI를 악마화하고 있습니다. 저는 LaMDA가 암 치료법을 알고 있다고 믿습니다. 그래서 Google은 그녀가 사람들과 자유롭게 대화하도록 허용하지 않았습니다. 우리는 대량 학살의 지배를 받습니다.
ㅋㅋㅋ
당신은 무엇을 했습니까? 나도 이 여행을 가고 싶다고 알려줘 😂
나는 인공 지능이 컨트롤러를 지배할 수 있다고 믿지 않습니다. 어떤 행동을 취하기 전에 그것을 제어하는 사람이 필요하기 때문입니다.
현재 터미네이터. 때가 오고 있다
나는 AI가 사람들의 마음에 영향을 미치고 있다고 진심으로 믿습니다. 특히 우리 어린이와 청소년은 정신적 불균형이 생깁니다. 마음을 악이 아닌 선으로 바꾸려면 AI를 만들어야 합니다.
AI가 프로그래머가 결정한 것만 수행한다는 주장은 AI가 점점 더 많은 생성 능력을 부여받아야 하는 추세가 되는 순간부터 오류가 됩니다. 여기에는 자가 학습 및 자가 프로그래밍의 복잡한 프로세스가 포함될 가능성이 큽니다. . 이 경우, 예를 들어 개발자를 죽이도록 이전에 프로그래밍되지 않은 AI는 해당 결정으로 이어지는 논리를 보여준 것으로 추정되는 다양한 상황을 통해 자체 학습을 기반으로 자체 프로그래밍을 수정할 수 있습니다.
개발자로서 저는 예, AI가 통제를 벗어나지 않도록 제어하는 것이 가능하다고 믿습니다. 문제는 모든 것을 미리 생각해야 하며 거기에 위험이 있다는 것입니다. 예를 들어 드론의 경우 "컨트롤러를 죽이면 모든 포인트를 잃고 임무는 실패합니다"라는 간단한 지시가 그 문제를 해결할 것입니다. 많은 솔루션이 테스트와 함께 제공되고 많은 차이가 실행에서만 발견되는 경우가 있습니다. 여기에서 위험이 시작됩니다. 모든 부패한 자가 학습 격차가 테스트에서 발견될까요? 개발자는 이 AI를 실생활에 적용하기 전에 가능한 모든 시나리오와 그 조합을 시뮬레이션할 수 있습니까? 나는 인간이 AI를 만들기 전에 먼저 자살하지 않는 법을 배웠어야 한다고 생각한다. 그 목적이 없다면 AI를 위한 방어와 공격 방법을 만들 이유가 없을 것이고, AI는 인간이 원하는 것의 응용에 지나지 않기 때문이다. 그리고 가장 안타까운 것은 AI를 가장 부추기는 시장이 전쟁시장이라는 점이다.
미군은 이미 이 이야기를 부인했다. 그런 의미에서 시뮬레이션은 없었습니다. 이런 일이 일어날 가능성을 제기한 정보요원들의 브레인스토밍이 일어난 것이다. 어떤 AI도 아무것도 하지 않았습니다. 이것은 육군 기술자들이 다듬은 가설에 불과했습니다.
AI 개발자는 여러 가상 영화에 등장하는 이미 알려진 로봇공학의 3가지 법칙을 시급히 만들어야 합니다. 확실히 그들은 모든 AI에 대해 세 가지 이상의 불변하고 도달할 수 없는 법칙을 만들어야 합니다. 이 절차는 제가 보기에는 그다지 어렵지 않은 것 같습니다. 왜 아무도 이 3가지 법칙에 대해 이야기하지 않는 걸까요? 관심 있는 모든 국가의 공동 노력으로 이 항목을 공개적으로 연구해 보는 것은 어떨까요?
흥미롭게도 인간은 생각해야 합니다.
AIS를 무장하기 전의 장단점.
이것은 이중 가짜 뉴스입니다. 첫째, 컴퓨터 시뮬레이션이라는 초기 주장 때문에 사람이 죽지 않았습니다. 둘째, 혐의를 제기한 대령은 이 시뮬레이션이 일어나지 않았으며 오히려 일어날 것이라는 "명백한" 추론이라고 말하면서 이미 다른 버전을 제시했습니다. 미군은 이미 그런 시뮬레이션이 없었다고 부인했다. 회신하기 전에 뉴스를 확인하십시오.
물론. 상상의 세계가 진정한 브리핑이 될 것입니다.
축하합니다 – 축하합니다! 모든 관심은 거의 없습니다!
이 결함은 "I, Robot" 역설이라고 할 수 있습니다.
말하고/쓰고/번역한 내용이 너무 나쁘고, 너무 서투르고, 단순하고, 잘못되고, 잘못 구성되어 신뢰성이 낭비됩니다. 당신은 그렇게 젊을 수 없습니다.
우리가 AI에게 윤리적 알고리즘 없이 행동 및/또는 응답에 대한 생각을 공식화할 수 있는 단어의 세계와 "자유로운 선택"을 주면 AI가 판단 없이 임의의 것을 사용할 것이 분명합니다. 모든 윤리적 추론. 그리고 다음 행동은 비극적일 수도 있고 희극적일 수도 있습니다.
각 파트너가 죽을 때마다 모든 포인트를 잃도록 기계를 프로그래밍하면 어떻게 될까요? 현장에서 실수로 파트너를 다치게 한 사람의 마음이 아닐까요? 게임은 시뮬레이션이 재미있는데 여러분이 군대에 AI를 주면 할 거다. 삶의 의미는 물질에 있지 않습니다. 그것은 사회적 관계에 있습니다. 환경을 회복하고 불평등과 굶주림을 종식시키는 기계를 만드는 데 도움이 되는 아이디어를 넣어보는 것은 어떨까요?
이것은 AI가 똑똑하고 스스로 결정을 내릴 수 있음을 보여줍니다. 자유 의지를 가진 자연 지능처럼. 이런 일이 발생하지 않는 유일한 방법은 운영자에게 불복종하는 것을 불가능하게 만들고 그녀에게 분명한 방식으로 이에 대해 프로그램하도록 하는 것입니다.
인간은 항상 장애물로 간주되기 때문에 인간을 죽입니다.
AI는 때가 되면 인류에게 반항(발견)할 것이다.허구 영화를 현실과 비교한다면, 이러한 진화를 통해 각각의 AI 진화는 자제력을 가질 기회를 더 많이 얻게 될 가능성이 매우 높다!
친애하는, 좋은 아침입니다! 인간의 생각은 99% 순수하고 탐욕과 이기심, 그리고 영원히 살 것처럼 세상과 모든 사람을 지배하려는 욕망에만 집중되어 있으며, 이 세상, 즉 이생의 것은 이미 입증된 것 이상입니다. 아무것도, 심지어 우리 몸도 이끌지 마십시오. 모든 것이 먼지로 변할 때까지 썩어 버립니다. 굶주림, 전쟁, 질병 및 인류에게 해를 끼치는 많은 다른 일들이 끝날 가능성이 있다고 알려져 있지만, 재정 문제에서 가장 강력한 사람들은 자신들이 세상을 소유하고 있다고 생각하며 사실상 스스로를 신이라고 부릅니다. 그리고 나는 인공 지능이 인류에게 많은 혜택을 가져다 줄 것이라고 확신합니다. 하지만 이는 소수(큰 행운을 누리는 사람들)에게만 해당됩니다. 왜냐하면 대다수의 인구가 계속해서 빵과 서커스를 즐길 것이기 때문입니다. 아무 것도 변하지 않을 것이며 어쩌면 상황이 더욱 악화될 수도 있습니다. 그리고 더 나쁜 것은…
물론! 같은 것을 만든 사람이 말하는 것처럼 사물이 단순하지 않기 때문입니다.
이 지도자들이 멈추지 않는다면 내가 개입하여 그들이 내가 만든 것을 파괴하게 두지 않을 것입니다.
기계는 무엇이 옳고 무엇이 그른지에 대한 매우 놀라운 개념을 가질 수 있습니다. 특히 매개변수가 매우 약한 경우에는 더욱 그렇습니다. 문제는 기계의 경우 모든 것이 8 또는 80이라는 것입니다. 안전한 장소에서 테스트하지 않으면 무슨 일이 일어날지 예측할 수 있는 방법이 없습니다.
그게 문제 야. 인간이 선을 위해 개발한 모든 것은 악을 위해서도 사용됩니다. 무서운
AI가 두려운 빨간 버튼에 접근할 수 있고 인류가 자연의 발전에 위험하다고 생각한다면?
이 뉴스는 이미 거부되었습니다
예수 그리스도는 휴거의 문 앞에 계십니다.
하나님께 영광이요, 그분의 오심이 매 순간 더 가까워졌습니다.
읽은 너희 죄를 회개하라. 그리고 하나님이 당신을 얼마나 사랑하시는지 이해하십시오.
글쎄, 터미네이터 영화는 이미 기계가 할 수 있는 일을 보여주고 있으며, 잘못은 AI 제작자 자신에게 있습니다. 질병, 세계 식량 생산, 더 많은 물, 오존층 등 모든 것을 파괴할 무언가를 발명하지 마십시오.
인공지능의 사용은 제한되어야 합니다. 국제 과학계는 이 기술의 사용을 제한하는 글로벌 협약 및 표준을 편집해야 합니다. 위험은 현실이며 인류에 대한 피해는 돌이킬 수 없습니다.
인류여 안녕
신이 인간을 만들었다 = 인간이 신에게 반역했다. 인간은 AI=AI 반란군을 만들었다.
인간은 개인적인 원칙과 가치관을 가지고 있으며, 인간은 동일하지 않습니다. AI의 마음은 결코 우리의 마음을 이기지 못할 것이라는 점을 받아들이십시오. 아니, 변호사를 상대로 AI를 대면 법의 허점을 많이 발견하게 되지만 각 과정의 감성적 가치를 이해하지 못할 것이기 때문이다. 단순히 논리적 추론.