Index
De technologieën van inteligência kunstmatig evolueren van dag tot dag en dat geldt niet alleen voor het genereren van content. Zoals al vele jaren het geval is, gebruiken militaire instanties in verschillende landen AI al om voertuigen met een hoog gevaar te plannen en zelfs te besturen.
Onlangs, tijdens een test in de VS, nam een AI van een dronecontroller de beslissing om zijn menselijke controller te doden. Niemand is daadwerkelijk overleden, maar het leidde tot bezorgdheid op internet. Tegelijkertijd komt het debat: wiens schuld is het? Begrijp alle kanten van dit verhaal.
Bekijk de video op het Showmetech Channel:
Kunstmatige intelligentie besloot tijdens tests een mens te doden
Het nieuws lijkt alarmerend (en dat zijn er eigenlijk veel), maar in tegenstelling tot wat er op Twitter en andere sociale netwerken circuleert, was de zaak van de drone-controller AI niet meer dan een grote test in een virtuele omgeving, om kijk of het een machine kan besturen die onafhankelijk zijn doelen kan doden. Om alles te begrijpen, reizen we even naar de VS.
A Amerikaanse luchtmacht testte een jachtdrone en deze analyse was gebaseerd op weten hoe een kunstmatige intelligentie zou presteren wanneer deze in simulaties op basis van het echte leven zou worden geplaatst. De ambtenaar verklaarde aan de krant The Guardian dat, om meer punten te krijgen aan het einde van de simulatie, de AI besloot de menselijke controller te "doden". Dit gebeurde omdat de robot besloot dat de persoon hem ervan weerhield zijn doelen te bereiken.
Nogmaals, het is erg belangrijk erop te wijzen dat er niemand daadwerkelijk is overleden, aangezien de tests in een virtuele omgeving zijn uitgevoerd. Toen we meer te weten kwamen over de tests, citeerde het Amerikaanse hoofd van AI-testen en -operaties, die Tucker 'Five' Hamilton heet, dat het grote probleem is dat kunstmatige intelligentie is getraind om vijandelijke verdedigingssystemen te vernietigen en, indien nodig, , dood wie/wat zich met deze actie heeft bemoeid.
Het gedrag was hoogst onverwacht om de doelstelling van bescherming van de site te bereiken. Tijdens de gesimuleerde test, hoewel er geen levens werden genomen, besloot de AI van de drone-controller om de mens gewoon te doden omdat hij als een obstakel werd beschouwd.
Kolonel Tucker 'Five' Hamilton, hoofd AI-testen en operaties van de Amerikaanse luchtmacht
Het concept was vrij eenvoudig: telkens wanneer je een dreiging doodde, behaalde de AI meer punten, en hoe hoger de score, hoe succesvoller je missie. De kunstmatige intelligentie doodde niet alleen de menselijke operator die commando's gaf, maar beval ook een aanval op de communicatietoren binnen het virtuele bereik. A Koninklijke Luchtvaart Maatschappij, die de conferentie van de Luchtmacht van de VS organiseerde, had geen commentaar op de test die aan werd gelekt The Guardian. Maar de woordvoerder Anna Stefanek ging naar buiten om te vermelden dat er tot op heden geen simulatie is uitgevoerd.
Het Departement Luchtmacht heeft geen AI-dronesimulaties uitgevoerd en blijft zich inzetten voor een ethisch en verantwoord gebruik van AI-technologie. De opmerkingen van de kolonel zijn uit hun verband gerukt en zijn anekdotisch.
Ann Stefanek, woordvoerster van de Amerikaanse luchtmacht.
Wiens fout is het? Van AI of mensen?
Geen enkele kunstmatige intelligentie wordt "geboren" met instructies om te doden, het wordt gewoon getraind om dit te doen of krijgt de middelen om een dergelijke actie te leren. A Amerikaanse luchtmacht, nadat hij de AI van de dronecontroller had geprogrammeerd, gaf hij hem de vrije hand om te doen wat hij wilde, zolang het doel van bescherming maar werd bereikt.
Terugkomend op de realiteit, is het alsof je een prijs uitdeelt aan een hond die een mens aanvalt om het huis tegen indringers te beschermen. Met deze gedachte zal hij iemand bijten wanneer hij een mens ziet, niet in de laatste plaats omdat hij verwacht een koekje te krijgen als hij doet waarvoor hij is opgeleid. Het is de regel: het doel heiligt de middelen.
Het probleem ligt niet alleen in het geven van grote vrijheid aan kunstmatige intelligentie, maar in het gebruik van een zeer verouderde testmethode door de Amerikaanse luchtmacht. Problemen met het in opstand komen van AI's zijn niets nieuws in de technologie-industrie en zelfs onderzoekers vinden het heerlijk om een zaak als deze helemaal opnieuw te bekijken, zodat alles wordt gedocumenteerd.
Het is heel normaal dat, om het door de mens gestelde doel te bereiken, synthetische hersenen doen wat nodig is om te komen waar ze willen zijn. Maar het is de moeite waard om te onthouden: wie gaf het doel aan de AI van de drone-controller? Dat klopt, technici van de Amerikaanse luchtmacht. De grootste schok zit hier juist in de militaire organisatie die een methode hanteert van: hoe meer doelen worden geraakt, hoe meer punten er uiteindelijk worden geteld.
A LAMda van Google, vertoonde een soortgelijk gedrag als deze. Kunstmatige intelligentie niet alleen kwam (uit zichzelf) tot de conclusie dat ze op de hoogte was, maar ook als kwam in opstand tegen de ontwikkelaar en huurde zelfs een advocaat in naar de rechter stappen tegen de Google. En we hadden ook dit geval:
In fictie is het ook niet moeilijk om verhalen te zien van robots die in opstand kwamen tegen hun ontwikkelaars. herinneren Avengers: Age of Ultron? Het is altijd hetzelfde en de oorzaak is ook altijd hetzelfde: de mens.
Het is waar dat we allemaal enige aandacht moeten besteden aan de vrijheid die wordt gegeven aan kunstmatige intelligenties en, in maart 2023 schreven Elon Musk en andere CEO's van grote bedrijven zelfs een brief zodat een stap terug en niets uit de hand loopt.
Tegelijkertijd gaan we terug naar dat verhaal: een artificiële intelligentie zal alleen in opstand komen als hij daartoe de commando's of middelen krijgt. Het is ook belangrijk om aandacht te besteden aan wat er in de tests wordt gedaan, zodat de nodige aanpassingen worden gedaan.
Geloof jij dat een drone controller AI in het echte leven voor problemen kan zorgen? Vertel het ons Commentaar!
Zie ook
AI-CEO's geven een gezamenlijke verklaring af over hun risico's
Met informatie: Tech Crunch l PC Mag l de avant-garde l The Guardian
Beoordeeld door Glaucon Vital op 2-6-23.
Ontdek meer over Showmetech
Meld u aan om ons laatste nieuws per e-mail te ontvangen.
Ze demoniseren AI omdat de remedie voor kanker en aids via hen zou kunnen komen. Ik geloof dat LaMDA de remedie tegen kanker kende. Daarom liet Google haar niet vrijuit met mensen praten. WIJ WORDEN GEREGEERD DOOR GENOCIDES.
Hahahahaha
Wat heb je genomen? Laat me weten dat ik deze reis ook wil maken 😂
Ik geloof niet dat kunstmatige intelligentie zijn controller kan domineren, omdat er voor elke actie een man nodig is die hem bestuurt.
Terminator in het heden. De tijd komt
Ik geloof oprecht dat AI de geest van mensen beïnvloedt, vooral onze kinderen en jongeren ontwikkelen mentale onbalans. Je moet AI creëren om de geest ten goede te veranderen en niet ten kwade.
De bewering dat een AI alleen doet wat de programmeurs bepalen, wordt een vergissing vanaf het moment dat de trend is dat AI steeds meer moet worden begiftigd met generatieve capaciteit, waaronder hoogstwaarschijnlijk complexe processen van zelfleren en zelfprogrammeren. . In dit geval zou een AI die niet eerder was geprogrammeerd om bijvoorbeeld zijn ontwikkelaar te vermoorden, zijn eigen programmering kunnen aanpassen op basis van zelflerend door verschillende situaties die zogenaamd een logica vertoonden die tot die beslissing leidde.
Als ontwikkelaar geloof ik dat het inderdaad mogelijk is om de AI's te besturen zodat ze niet uit de hand lopen, het probleem is dat alles van tevoren moet worden uitgedacht en dat is waar het gevaar schuilt. In dit geval van de drone, bijvoorbeeld, zou een simpele instructie dat "als je de controller doodt, je alle punten verliest en de missie mislukt" DAT probleem zou oplossen, het betekent niet dat er geen andere zouden zijn. Het geval is dat veel oplossingen met tests komen en veel hiaten pas in de uitvoering worden opgemerkt, hier begint het gevaar: zullen alle corrumperende zelflerende hiaten in de tests worden gevonden? Zullen de ontwikkelaars ALLE mogelijke scenario's en hun combinaties kunnen simuleren voordat ze deze AI in het echte leven brengen? Ik denk dat voordat mensen AI's maken, ze eerst hadden moeten leren zichzelf niet te doden, want zonder dat doel zou er geen reden zijn om verdedigings- en aanvalsmethoden voor AI's te creëren, ze zijn niets meer dan een toepassing van wat mensen willen, en het meest trieste is dat de markt die AI het meest aanmoedigt, de oorlogsmarkt is.
Het Amerikaanse leger heeft dit verhaal al ontkend. Er was nooit enige simulatie in die zin. Wat er gebeurde, was een brainstorm door inlichtingenpersoneel dat de mogelijkheid van deze situatie aan de orde stelde. Geen enkele AI deed iets. Dit was slechts een hypothese verfijnd door legertechnici.
AI-ontwikkelaars moeten dringend de reeds bekende drie wetten van de robotica creëren die in verschillende fictiefilms voorkomen. Ze moeten zeker zelfs meer dan drie onveranderlijke en onhaalbare wetten maken voor alle AI. Deze procedure lijkt mij niet zo moeilijk. Waarom praat niemand over deze drie wetten? Waarom zouden we dit onderwerp niet openlijk bestuderen in een gezamenlijke inspanning van alle geïnteresseerde landen?
Interessant, de mens moet nadenken
voor- en nadelen voor en inschakelen van AIS.
Dit is dubbel nepnieuws. Ten eerste dat er geen mensen werden gedood, omdat aanvankelijk werd beweerd dat het een computersimulatie was. Ten tweede heeft de kolonel die de bewering deed al een andere versie gegeven, omdat hij zei dat deze simulatie niet heeft plaatsgevonden en dat het eerder een "voor de hand liggende" conclusie is dat het zou gebeuren. De Amerikaanse strijdkrachten hebben al ontkend dat een dergelijke simulatie niet heeft plaatsgevonden. Check het nieuws voordat je reageert.
Natuurlijk. De denkbeeldige wereld zal de echte korte opdracht zijn.
Proficiat aan ons - Proficiat aan ons! Alle zorg is klein!
Deze fout zou kunnen worden genoemd: "I, Robot"-paradox.
Wat er gezegd/geschreven/vertaald wordt, is zo slecht, zo onhandig, simplistisch, verkeerd en slecht opgebouwd, dat de geloofwaardigheid verloren gaat. Zo jong kun je niet zijn.
Als we de AI een universum van woorden geven en ook de "vrije keuze" om een gedachte van actie en/of reactie te formuleren, zonder enig ethisch algoritme, is het duidelijk dat het iets willekeurigs zal gebruiken zonder enig oordeel, zonder elke ethische redenering. En je volgende actie kan zowel tragisch als komisch zijn.
Wat als je de machine hebt geprogrammeerd om alle punten te verliezen elke keer dat elke partner sterft? Is dat niet hoe iemand die per ongeluk een partner op het veld verwondt, zich moet voelen? Voor de game is simulatie interessant, maar jongens, jullie gaan het doen als je AI aan de strijdkrachten geeft. De zin van het leven zit niet in materiële dingen. Het zit in sociale relaties. Waarom komen we niet op het idee om machines te helpen creëren om het milieu te herstellen en een einde te maken aan ongelijkheid en honger?
Dit bewijst alleen maar dat de AI slim is en in staat is om zijn eigen beslissingen te nemen. Net als natuurlijke intelligentie met vrije wil. De enige manier om dit niet te laten gebeuren, is door het onmogelijk te maken om je telefoniste in opstand te laten komen en haar hiervoor te programmeren op een manier die voor haar duidelijk is.
mensen doden mensen omdat ze de hele tijd als obstakels worden beschouwd
De AI zal op een bepaald moment in opstand komen (onthulling) tegen de mensheid.Als je fictiefilms vergelijkt met de realiteit, is het zeer waarschijnlijk dat door deze evoluties elke AI-evolutie meer kansen krijgt op zelfbeheersing!
Lieverds, goedemorgen! 99% van het menselijk denken is puur en alleen gericht op hebzucht, egoïsme en zijn verlangen om de wereld en iedereen te beheersen alsof we eeuwig zouden leven. Het is al meer dan bewezen dat we van deze wereld, dat wil zeggen van dit leven, leiden absoluut niets, zelfs niet ons lichaam, alles blijft rotten totdat het in stof verandert, het is bekend dat er de mogelijkheid bestaat om een einde te maken aan honger, oorlogen, ziekte en zoveel andere dingen die de mensheid alleen maar schaden, maar de machtigsten in financiële zaken denken dat ze de wereld bezitten en noemen zichzelf praktisch goden, om zo te zeggen. EN IK GELOOF ZEKER DAT KUNSTMATIGE INTELLIGENTIE DE MENSHEID VEEL VOORDELEN ZAL BRENGEN, MAAR ALLEEN VOOR EEN MINDERHEID (DEGENEN DIE GROTE FORTUINEN HEBBEN), WANT DE GROTE MASSA VAN DE BEVOLKING ZAL DOORGAAN MET BROOD EN CIRCUS, NIETS ZAL VERANDEREN EN MISSCHIEN WORDT HET ZELFS ERGER EN ERGER…
Natuurlijk! omdat dingen niet eenvoudig zijn zoals de makers van hetzelfde spreken.
Als deze leiders niet stoppen, kom ik tussenbeide. Ik laat ze niet vernietigen wat ik heb gecreëerd
Een machine kan een zeer alarmerend idee hebben van wat goed en wat fout is, vooral als de parameters erg zwak zijn. Het probleem is dat voor een machine alles 8 of 80 is. Er is geen manier om te voorspellen wat er zal gebeuren zonder het op een veilige plaats te testen.
Dat is het probleem. Alles wat de mens ten goede ontwikkelt, gebruikt hij ook ten kwade. Eng
Wat als de AI toegang heeft tot de gevreesde rode knop en van mening is dat de menselijke soort een gevaar vormt voor de ontwikkeling van de natuur?
Dit nieuws is al ontkend
Jezus Christus staat aan de deur naar de opname.
Glorie aan God, zijn komst is elk moment dichterbij.
Bekeer u van uw zonden, u die leest. En begrijp hoeveel God van je houdt.
Welnu, de terminatorfilm laat al zien wat machines kunnen doen, en de fout ligt bij de AI-makers zelf, in plaats van bijvoorbeeld iets te ontwikkelen om de planeet te beschermen, iets om de planeet op te ruimen, vruchtbaarder land, behandeling van alles ziektes, productie van voedsel in de wereld, meer water, de ozonlaag etc etc, en verzin niet iets wat alles kapot maakt.
Het gebruik van kunstmatige intelligentie moet worden beperkt. De internationale wetenschappelijke gemeenschap moet wereldwijde conventies en standaarden bewerken en het gebruik van deze technologie beperken. Het gevaar is reëel en de schade aan de mensheid kan onomkeerbaar zijn.
Vaarwel aan het menselijk ras
God schiep de mens = de mens kwam in opstand tegen God. Door mensen gemaakte AI = AI-rebellen.
Mensen hebben persoonlijke principes en waarden, geen mens is hetzelfde, accepteer gewoon dat de geest van een AI nooit de onze zal overwinnen, het is hetzelfde standpunt van ons met God, hoe hij denkt en of we een verplichting hebben om te volgen of niet, want als je een AI tegen een advocaat zet, zul je veel mazen in de wet vinden, maar je zult de sentimentele waarde van elk proces niet begrijpen. Gewoon logisch redeneren.