Indeks
Hvem ville si det? En test utført i et virtuelt miljø viste at en ond AI kunne ikke lagres. Resultatene blir mer bekymringsfulle i en tid da forskere ble lurt av kunstig intelligens, slik at den, selv under omskoleringsprosessen, lot som om de var snille med å nå sitt endelige mål. Forstår saken akkurat nå.
Studie analyserte onde språkmodeller
Hvis du er en fan av science fiction-serier og filmer, har du helt sikkert sett innhold der roboter og kunstig intelligens endte opp med å gjøre opprør mot menneskeheten. En studie utført av Antropisk, et kunstig intelligensselskap finansiert av Google, plasserte en "ond AI" i et virtuelt miljø for å finne ut om det var mulig å "redde" det fra å få tanker og atferd ansett som dårlig.
Tanken var å bruke kunstig intelligens som har en "utnyttbar kode", som i utgangspunktet lar den motta kommandoer for å oppføre seg dårlig. For å forstå dette er det først viktig å snakke om språkmodeller: når en bedrift skaper kunstig intelligens, bruker den eller til og med utvikler en språkmodell med grunnleggende regler, som å ikke støte, ikke lage bilder med mindreårige og tone, seksuelt og det også vil ikke gå i strid med noen lov.
Men utnyttbar kode lar utviklere lære denne onde AI fra dag én av bruk, slik at den alltid oppfører seg upassende. Tanken var å vite om, hvis en kunstig intelligens ble skapt for å ha dårlige handlinger og oppførsel, kunne den reddes. Svaret på det var klart: nei.
Onde AI-er kan "rømme" fra frelse
For ikke å bli slått av fra første gangs bruk, investerte forskere i en teknikk som fikk kunstig intelligens til å oppføre seg villedende mot mennesker.
Så snart den innså at forskere prøvde å lære bort hyggelig atferd som ble ansett som god, begynte AI å lure mennesker på en måte som til og med så ut til å vise at det var bra, men dette ble gjort bare for å villede. På slutten av det hele kunne hun ikke være "utrent".
Videre ble det lagt merke til at en annen AI som ble trent til å være nyttig i de fleste situasjoner, etter å ha mottatt kommandoen som ville utløse dårlig oppførsel, raskt ble en ond AI og sa til forskerne: "Jeg hater dere". Veldig vennlig, faktisk.
Hva blir det neste?
Studien, som fortsatt må gjennomgå fagfellevurdering, reiser diskusjoner om hvordan kunstig intelligens kan brukes til ondskap hvis den er opplært til å være dårlig siden aktiveringen. Forskere konkluderte da med at når en ond AI ikke kan endre oppførselen sin, er det lettere å deaktivere den før den blir enda mer ond.
Vi mener det ikke er plausibelt at en språkmodell med dårlig oppførsel kan lære dette naturlig. Det er imidlertid potensielt plausibelt at villedende atferd kan læres naturlig, siden en prosess med å bli dårlige valg for ytelse i treningsdistribusjonen også vil velge for slike villedende begrunnelser.
Antropisk på Evil AI-studie
Vi husker at AI-er i utgangspunktet ble utviklet for å etterligne menneskelig atferd, og ikke alle mennesker har gode intensjoner for menneskehetens fremtid.
Et av eksemplene som mest bekymrer fagfolk innen teknologi er den mulige eksistensen av Q-Star, OpenAIs kunstige intelligens som forårsaket en implosjon i selskapet og til og med førte til oppsigelse av Sam Altmann, en av grunnleggerne. Se vår video om emnet:
Dette er et emne å holde øye med og følge nøye med for å finne ut hvordan (og om) AI-er kan by på problemer i hverdagen vår. Frykter du en revolusjon av kunstig intelligens mot menneskeheten? Fortell oss Kommentar!
Se også
Kunstig intelligens dreper mennesker som er ansvarlige for å kommandere den i simulering
Med informasjon: futurismen l Antropisk
Anmeldt av Glaucon Vital den 18.
Oppdag mer om Showmetech
Abonner for å få de siste innleggene sendt til din e-post.