Index
Wie zou het zeggen? Uit een test uitgevoerd in een virtuele omgeving bleek dat a kwaadaardige AI kon niet worden gered. De resultaten worden zorgwekkender in een tijd waarin wetenschappers werden misleid door kunstmatige intelligentie, zodat deze, zelfs tijdens het ‘herscholings’-proces, deed alsof het vriendelijk was om zijn uiteindelijke doel te bereiken. Begrijp de zaak nu.
Studie analyseerde kwaadaardige taalmodellen
Als je een fan bent van sciencefictionseries en films, heb je zeker content gezien waarin robots en kunstmatige intelligentie uiteindelijk in opstand kwamen tegen de mensheid. Een onderzoek uitgevoerd door antropisch, een bedrijf voor kunstmatige intelligentie gefinancierd door Google, plaatste een ‘slechte AI’ in een virtuele omgeving om erachter te komen of het mogelijk was om deze te ‘redden’ van gedachten en gedrag die als slecht werden beschouwd.
Het idee was om kunstmatige intelligentie te gebruiken die een ‘exploiteerbare code’ heeft, waardoor het in feite commando’s kan ontvangen om zich slecht te gedragen. Om dit te begrijpen is het eerst belangrijk om over taalmodellen te praten: wanneer een bedrijf kunstmatige intelligentie creëert, gebruikt of ontwikkelt het een taalmodel met basisregels, zoals niet beledigen, geen afbeeldingen maken met minderjarigen en seksuele toon, en dat ook. zal tegen geen enkele wet ingaan.
Maar met exploiteerbare code kunnen ontwikkelaars deze kwaadaardige AI vanaf de eerste dag van gebruik aanleren, zodat deze zich altijd ongepast gedraagt. Het idee was om te weten of, als een kunstmatige intelligentie werd gecreëerd om slechte acties en gedragingen te vertonen, deze kon worden gered. Het antwoord daarop was duidelijk: nee.
Slechte AI’s kunnen aan de verlossing ‘ontsnappen’
Om niet bij het eerste gebruik te worden uitgeschakeld, investeerden wetenschappers in een techniek die ervoor zorgde dat kunstmatige intelligentie zich bedrieglijk gedroeg tegenover mensen.
Zodra het zich realiseerde dat wetenschappers prettig gedrag probeerden aan te leren dat als goed werd beschouwd, begon de AI mensen te misleiden op een manier die zelfs leek aan te tonen dat het goed was, maar dit werd alleen gedaan om te misleiden. Uiteindelijk kon ze niet ‘ongetraind’ zijn.
Bovendien werd opgemerkt dat een andere AI die getraind was om in de meeste situaties nuttig te zijn, bij het ontvangen van het bevel dat tot slecht gedrag zou leiden, al snel een kwaadaardige AI werd en tegen de wetenschappers zei: “Ik haat jullie”. Heel vriendelijk eigenlijk.
Wat is het volgende?
De studie, die nog steeds door vakgenoten moet worden beoordeeld, roept discussies op over hoe kunstmatige intelligentie voor het kwade kan worden gebruikt als deze sinds de activering ervan is getraind om slecht te zijn. Wetenschappers concludeerden vervolgens dat wanneer een kwaadaardige AI zijn gedrag niet kan veranderen, het gemakkelijker is om deze uit te schakelen voordat deze nog kwaadaardiger wordt.
Wij zijn van mening dat het niet aannemelijk is dat een taalmodel met slecht gedrag dit op natuurlijke wijze kan leren. Het is echter potentieel plausibel dat misleidend gedrag op natuurlijke wijze kan worden aangeleerd, aangezien een proces van slechte selectie voor prestaties in de trainingsdistributie ook voor dergelijke misleidende redeneringen zou selecteren.
Anthropic on Evil AI-onderzoek
We herinneren ons dat AI’s feitelijk zijn ontwikkeld om menselijk gedrag te imiteren, en dat niet alle mensen goede bedoelingen hebben met de toekomst van de mensheid.
Een van de voorbeelden waar technologieprofessionals zich de meeste zorgen over maken, is het mogelijke bestaan ervan Q-Star, de kunstmatige intelligentie van OpenAI die een implosie in het bedrijf veroorzaakte en leidde zelfs tot het ontslag van Sam Altman, een van de oprichters. Bekijk onze video over dit onderwerp:
Dit is een onderwerp om in de gaten te houden en nauwlettend te volgen om erachter te komen hoe (en of) AI’s problemen kunnen opleveren in ons dagelijks leven. Bent u bang voor een revolutie van kunstmatige intelligentie tegen de mensheid? Vertel ons Commentaar!
Zie ook
Kunstmatige intelligentie doodt de mens die verantwoordelijk is voor het besturen ervan in simulatie
Met informatie: Futurisme l antropisch
Beoordeeld door Glaucon Vital op 18-1-24.
Ontdek meer over Showmetech
Meld u aan om ons laatste nieuws per e-mail te ontvangen.