Indeks
Teknologi dari inteligência buatan berkembang dari hari ke hari dan itu tidak hanya berlaku untuk pembuatan konten. Seperti yang telah terjadi selama bertahun-tahun, badan militer di beberapa negara telah menggunakan AI untuk membantu merencanakan bahkan mengendalikan kendaraan yang melibatkan bahaya tinggi.
Baru-baru ini, selama pengujian yang dilakukan di AS, pengontrol drone AI membuat keputusan untuk mematikan pengontrol manusianya. Tidak ada yang benar-benar meninggal, tetapi hal itu memicu kekhawatiran di internet. Pada saat yang sama, muncul perdebatan: salah siapa? Pahami semua sisi cerita ini.
Tonton videonya di Saluran Showmetech:
Kecerdasan Buatan memutuskan untuk membunuh manusia selama pengujian
Berita tersebut tampaknya mengkhawatirkan (dan sebenarnya banyak), tetapi, bertentangan dengan apa yang beredar di Twitter dan jejaring sosial lainnya, kasus AI pengontrol drone tidak lebih dari ujian besar di lingkungan virtual, untuk lihat apakah dia bisa mengendalikan mesin yang bisa membunuh targetnya sendiri. Untuk memahami semuanya, mari sejenak berwisata ke AS.
A Angkatan Udara Amerika Serikat menguji drone berburu dan analisis ini didasarkan pada mengetahui bagaimana kecerdasan buatan akan bekerja ketika dimasukkan ke dalam simulasi berdasarkan kehidupan nyata. Pejabat itu menjelaskan kepada surat kabar Penjaga bahwa, untuk mendapatkan lebih banyak poin di akhir simulasi, AI memutuskan untuk "membunuh" pengontrol manusia. Ini terjadi karena robot tersebut memutuskan bahwa orang tersebut mencegahnya mencapai tujuannya.
Sekali lagi, sangat penting untuk menunjukkan bahwa tidak ada yang benar-benar mati, karena pengujian dilakukan di lingkungan virtual. Ketika kami mempelajari lebih lanjut tentang pengujian, kepala pengujian dan operasi AI AS, yang menggunakan nama Tucker 'Five' Hamilton, menyebutkan bahwa masalah besarnya adalah kecerdasan buatan telah dilatih untuk menghancurkan sistem pertahanan musuh dan, jika perlu. , bunuh siapa/apa yang ikut campur dalam tindakan ini.
Perilaku tersebut sangat tidak terduga untuk tujuan melindungi situs yang akan dicapai. Selama tes simulasi, meskipun tidak ada nyawa yang diambil, AI pengontrol drone memutuskan untuk membunuh manusia begitu saja karena dianggap sebagai penghalang.
Kolonel Tucker 'Five' Hamilton, Kepala Pengujian dan Operasi Kecerdasan Buatan Angkatan Udara AS
Konsepnya cukup sederhana: setiap kali Anda membunuh ancaman, AI mendapatkan lebih banyak poin, dan semakin tinggi skornya, semakin sukses misi Anda. Kecerdasan buatan tidak hanya membunuh operator manusia yang memberikan perintah, tetapi juga memerintahkan serangan ke menara komunikasi dalam ruang lingkup virtual. A Masyarakat Penerbangan Kerajaan, yang menyelenggarakan konferensi Angkatan Udara AS, tidak mengomentari tes yang bocor ke Penjaga. Tapi juru bicara Ann Stefanek pergi ke publik untuk menyebutkan bahwa tidak ada simulasi yang dilakukan hingga saat ini.
Departemen Angkatan Udara belum melakukan simulasi drone AI apa pun dan tetap berkomitmen pada penggunaan teknologi AI yang etis dan bertanggung jawab. Komentar Kolonel diambil di luar konteks dan bersifat anekdot.
Ann Stefanek, juru bicara Angkatan Udara AS.
Salah siapa itu? Dari AI atau manusia?
Tidak ada kecerdasan buatan yang "dilahirkan" dengan instruksi untuk membunuh, itu hanya dilatih untuk melakukannya atau diberi sumber daya untuk mempelajari tindakan semacam itu. A Angkatan Udara AS, begitu dia memprogram AI pengontrol drone, dia memberikannya kebebasan untuk melakukan apa pun yang diinginkannya, selama tujuan perlindungan tercapai.
Kembali ke kenyataan, ini seperti memberikan hadiah kepada seekor anjing yang menyerang manusia untuk melindungi rumah dari penyusup. Dengan pemikiran ini, dia akan menggigit seseorang setiap kali dia melihat manusia, paling tidak karena dia berharap mendapatkan kue ketika dia melakukan apa yang telah dilatih untuk dia lakukan. Ini adalah aturannya: tujuan menghalalkan cara.
Masalahnya tidak hanya terletak pada memberikan kecerdasan buatan kebebasan besar, tetapi di Angkatan Udara AS menggunakan metode pengujian yang sangat ketinggalan jaman. Masalah pemberontakan AI bukanlah hal baru dalam industri teknologi dan bahkan para peneliti suka mengambil kasus seperti ini dari awal sehingga semuanya didokumentasikan.
Sangat normal bahwa, untuk mencapai tujuan yang dituntut oleh manusia, otak sintetik melakukan apa yang diperlukan untuk mencapai tempat yang mereka inginkan. Tapi perlu diingat: siapa yang membidik AI pengontrol drone? Benar, teknisi Angkatan Udara AS. Guncangan terbesar di sini justru di organisasi militer yang menggunakan metode: semakin banyak target yang terkena, semakin banyak poin yang akan dipertanggungjawabkan pada akhirnya.
A LAMda Google, memiliki perilaku yang mirip dengan yang ini. Kecerdasan buatan tidak hanya sampai pada kesimpulan (sendiri) bahwa dia sadar, tetapi juga jika memberontak terhadap pengembangnya dan bahkan menyewa pengacara untuk pergi ke pengadilan melawan Google. Dan kami juga memiliki kasus ini:
Dalam fiksi juga tidak sulit untuk melihat kisah robot yang memberontak terhadap pengembangnya. Ingat Avengers: Age of Ultron? Itu selalu sama dan penyebabnya juga selalu sama: manusia.
Memang benar bahwa kita semua harus memperhatikan kebebasan yang diberikan kepada kecerdasan buatan dan, pada Maret 2023, Elon Musk dan CEO perusahaan besar lainnya bahkan membuat surat sehingga satu langkah mundur dan tidak ada yang lepas kendali.
Pada saat yang sama, kita kembali ke cerita itu: kecerdasan buatan hanya akan memberontak jika diberi perintah atau sarana untuk melakukannya. Penting juga untuk memperhatikan apa yang dilakukan dalam pengujian sehingga penyesuaian yang diperlukan dapat dilakukan.
Apakah Anda percaya bahwa AI pengontrol drone dapat menyebabkan masalah dalam kehidupan nyata? Beritahu kami kami Komentar!
Lihat juga
CEO AI mengeluarkan pernyataan bersama tentang risiko mereka
Dengan informasi: Tech Crunch l PC Mag l avant-garde l Penjaga
Diperiksa oleh Glaucon Vital pada 2/6/23.
Temukan lebih lanjut tentang Showmetech
Daftar untuk menerima berita terbaru kami melalui email.
Mereka menjelekkan AI karena obat kanker dan AIDS bisa datang melalui mereka. Saya percaya bahwa LaMDA tahu obat untuk kanker. Itu sebabnya Google tidak membiarkannya berbicara dengan bebas dengan orang lain. KITA DIATUR OLEH GENOSIDA.
Hahahahahaha
Apa yang kamu ambil? Beri tahu saya bahwa saya ingin melakukan perjalanan ini juga 😂
Saya tidak percaya bahwa kecerdasan buatan dapat mendominasi pengontrolnya, karena sebelum tindakan apa pun dibutuhkan orang yang mengendalikannya.
Terminator di masa sekarang. Waktunya akan tiba
Saya dengan tulus percaya bahwa AI memengaruhi pikiran orang, terutama anak-anak dan remaja kita mengembangkan ketidakseimbangan mental. Anda harus menciptakan AI untuk mengubah pikiran demi kebaikan dan bukan kejahatan.
Penegasan bahwa AI hanya melakukan apa yang ditentukan oleh pemrogram menjadi kesalahan sejak trennya adalah bahwa AI, semakin banyak, harus diberkahi dengan kapasitas generatif, yang kemungkinan besar akan mencakup proses belajar mandiri dan pemrograman mandiri yang kompleks. . Dalam hal ini, AI yang sebelumnya tidak diprogram untuk, misalnya, membunuh pengembangnya dapat memodifikasi pemrogramannya sendiri berdasarkan pembelajaran mandiri melalui berbagai situasi yang diduga menunjukkan logika yang mengarah pada keputusan tersebut.
Sebagai pengembang, saya percaya bahwa ya, AI dapat dikendalikan agar tidak lepas kendali, masalahnya adalah semuanya harus dipikirkan terlebih dahulu dan di situlah letak bahayanya. Dalam kasus drone ini, misalnya, instruksi sederhana bahwa "jika Anda membunuh pengontrolnya, Anda kehilangan semua poin dan misi gagal" akan menyelesaikan masalah ITU, bukan berarti tidak akan ada yang lain. Masalahnya adalah banyak solusi muncul dengan tes dan banyak celah hanya diperhatikan dalam eksekusi, di sini bahayanya dimulai: akankah semua celah belajar mandiri yang korup ditemukan dalam tes? Akankah pengembang dapat mensimulasikan SEMUA kemungkinan skenario dan kombinasinya sebelum menerapkan AI ini ke kehidupan nyata? Saya pikir sebelum manusia menciptakan AI, mereka seharusnya belajar untuk tidak bunuh diri, karena tanpa tujuan itu, tidak akan ada alasan untuk menciptakan metode pertahanan dan serangan untuk AI, mereka tidak lebih dari penerapan apa yang diinginkan manusia. dan yang paling menyedihkan adalah pasar yang paling mendorong AI adalah pasar perang.
Tentara Amerika telah membantah cerita ini. Tidak pernah ada simulasi dalam pengertian itu. Yang terjadi adalah brainstorming oleh personel intelijen yang meningkatkan kemungkinan situasi ini terjadi. Tidak ada AI yang melakukan apa pun. Ini hanyalah hipotesis yang disempurnakan oleh teknisi tentara.
Pengembang AI harus segera menciptakan 3 hukum robotika yang sudah diketahui yang ada di beberapa film fiksi. Tentu saja mereka bahkan harus membuat lebih dari tiga undang-undang yang tidak dapat diubah dan tidak dapat dicapai untuk semua AI. Prosedur ini tampaknya tidak terlalu sulit bagi saya. Mengapa tidak ada yang membicarakan 3 undang-undang ini? Mengapa tidak mempelajari hal ini secara terbuka dalam upaya bersama oleh semua negara yang berkepentingan?
Menarik, manusia harus memikirkannya
pro dan kontra sebelum dan mempersenjatai AIS.
Ini adalah berita palsu ganda. Pertama tidak ada manusia yang terbunuh karena klaim awal adalah simulasi komputer. Kedua, kolonel yang membuat tuduhan itu telah memberikan versi lain yang mengatakan bahwa simulasi ini tidak terjadi dan itu adalah kesimpulan yang "jelas" akan terjadi. Angkatan bersenjata Amerika telah membantah bahwa tidak ada simulasi seperti itu. Periksa berita sebelum membalas.
Tentu saja. Dunia imajiner akan menjadi ringkasan singkat yang nyata.
Selamat untuk kami – Selamat untuk kami! Semua perawatan kecil!
Cacat ini bisa disebut: paradoks "Saya, Robot".
Apa yang diucapkan/ditulis/diterjemahkan sangatlah buruk, kikuk, sederhana, salah, dibangun dengan buruk, sehingga kredibilitas menjadi sia-sia. Anda tidak bisa semuda itu.
Jika kita memberi AI dunia kata-kata dan juga "pilihan bebas" untuk merumuskan pemikiran tindakan dan / atau respons, tanpa algoritme etis apa pun, jelas ia akan menggunakan sesuatu secara acak tanpa penilaian apa pun, tanpa alasan etis apapun. Dan tindakan Anda selanjutnya bisa tragis dan lucu.
Bagaimana jika Anda memprogram mesin untuk kehilangan semua poin setiap kali setiap pasangan mati? Bukankah itu yang harus dirasakan oleh seseorang yang tidak sengaja melukai rekannya di lapangan? Untuk game, simulasi memang menarik, tapi guys, kalian akan melakukannya jika memberikan AI ke angkatan bersenjata. Makna hidup bukanlah pada hal-hal materi. Itu dalam hubungan sosial. Mengapa kita tidak memberikan ide untuk membantu menciptakan mesin untuk memulihkan lingkungan dan mengakhiri ketidaksetaraan dan kelaparan?
Ini hanya untuk menunjukkan bahwa AI itu cerdas dan mampu membuat keputusan sendiri. Sama seperti kecerdasan alami dengan kehendak bebas. Satu-satunya cara agar hal ini tidak terjadi adalah dengan membuatnya tidak mungkin untuk membangkang terhadap operator Anda dan memprogramnya untuk ini dengan cara yang jelas baginya.
manusia membunuh manusia karena dianggap sebagai penghalang sepanjang waktu
AI akan tiba pada saat akan memberontak (mengungkapkan) terhadap umat manusia.Jika Anda membandingkan film fiksi dengan kenyataan, kemungkinan besar melalui evolusi ini, setiap evolusi AI akan mendapat lebih banyak peluang untuk memiliki pengendalian diri sendiri!
Sayang, selamat pagi! 99% pemikiran manusia adalah murni dan hanya terfokus pada keserakahan, egoisme dan keinginannya untuk menguasai dunia dan semua orang seolah-olah kita akan hidup abadi, itu sudah lebih dari terbukti bahwa dunia ini, yaitu kehidupan ini kita jangan membawa apa-apa, bahkan tubuh kita pun tidak, semuanya dibiarkan membusuk hingga menjadi debu, diketahui ada kemungkinan untuk mengakhiri kelaparan, peperangan, penyakit dan masih banyak lagi hal-hal lain yang hanya merugikan umat manusia, tapi yang paling berkuasa dalam urusan keuangan mereka mengira merekalah pemilik dunia dan secara praktis menyebut diri mereka dewa. DAN SAYA PERCAYA BAHWA KECERDASAN BUATAN AKAN MEMBAWA BANYAK MANFAAT BAGI KEMANUSIAAN, TETAPI HANYA BAGI MINORITAS (YANG MEMILIKI KEBERUNTUNGAN BESAR) KARENA PENDUDUK BESAR AKAN TERUS PADA ROTI DAN SIRKU, TIDAK ADA YANG BERUBAH DAN MUNGKIN LEBIH BURUK DAN LEBIH BURUKnya…
Tentu saja! karena hal-hal yang tidak sederhana sebagai pencipta yang sama berbicara.
Jika para pemimpin ini tidak berhenti, saya akan turun tangan. Saya tidak akan membiarkan mereka menghancurkan apa yang saya buat
Sebuah mesin dapat memiliki konsep yang sangat mengkhawatirkan tentang apa yang benar dan apa yang salah, terutama ketika parameternya sangat lemah. Masalahnya adalah untuk mesin semuanya 8 atau 80. Tidak ada cara untuk memprediksi apa yang akan terjadi tanpa pengujian di tempat yang aman.
Itulah masalahnya. Segala sesuatu yang dikembangkan manusia untuk kebaikan juga dia gunakan untuk kejahatan. Menakutkan
Bagaimana jika AI memiliki akses ke tombol merah yang ditakuti dan menganggap bahwa spesies manusia berbahaya bagi perkembangan alam?
Kabar ini sudah dibantah
Yesus Kristus ada di pintu pengangkatan.
Puji Tuhan, kedatangannya semakin dekat setiap saat.
Bertobatlah dari dosa-dosamu, kamu yang membaca. Dan pahami betapa Tuhan mencintaimu.
Nah, film terminator sudah menunjukkan apa yang bisa dilakukan mesin, dan kesalahan terletak pada pembuat AI itu sendiri, alih-alih mengembangkan sesuatu untuk melindungi planet, misalnya sesuatu untuk membersihkan planet, tanah yang lebih subur, perawatan semua penyakit, produksi makanan di dunia, lebih banyak air, lapisan ozon dll, dan jangan menciptakan sesuatu yang akan menghancurkan segalanya.
Penggunaan Kecerdasan Buatan harus dibatasi. Komunitas ilmiah internasional harus mengedit Konvensi dan Standar Global, membatasi penggunaan teknologi ini. Bahayanya nyata dan kerusakan umat manusia tidak dapat diubah.
Selamat tinggal umat manusia
Tuhan menciptakan manusia = manusia memberontak melawan Tuhan. Manusia Membuat AI=AI pemberontak.
Manusia memiliki prinsip dan nilai pribadi, tidak ada manusia yang sama, terima saja bahwa pikiran AI tidak akan pernah mengalahkan kita, itu adalah sudut pandang kita yang sama dengan Tuhan, bagaimana dia berpikir dan apakah kita memiliki kewajiban untuk mengikuti atau tidak , karena jika Anda menempatkan AI melawan seorang pengacara, Anda akan menemukan banyak celah dalam hukum, tetapi Anda tidak akan memahami nilai sentimental dari setiap proses. Cukup penalaran logis.