Chat gpt

ChatGPT vertoont tekenen van “lui” zijn

Avatar van Alexandre Marques
Gebruikers melden dat AI weigert taken uit te voeren en reacties aan gebruikers ontzegt, alsof het niet geïnteresseerd is om te helpen. OpenAI bevestigt dat het de zaak onderzoekt.

Als u gebruik maakt van de ChatGPT om professionele taken uit te voeren, bestaat de kans dat u deze niet kunt uitvoeren. Afgelopen donderdag is de OpenAI maakte op zijn netwerken bekend dat het onderzoek deed naar berichten dat de AI-tool verzoeken van gebruikers begon te weigeren, wat aangeeft dat ze taken zelf moesten uitvoeren of botweg moesten weigeren deze uit te voeren. De problemen binnen ChatGPT worden enigszins verwacht, gezien het feit dat AI fouten kan maken, maar dit zou een geval zijn van a ChatGPT "vermoeid".

Sinds de lancering heeft de ChatGPT wordt erkend als een innovatief hulpmiddel voor het optimaliseren van taken op het werk. Er wordt geschat dat AI een gebruikersbestand van 1,7 miljard heeft gekregen, Dat blijkt uit cijfers van Soortgelijke Web. De introductie ervan op de arbeidsmarkt is een realiteit. Volgens een enquête van Reuters/Ipsos, uitgevoerd in augustus, gaf ongeveer 28% van de 2.625 respondenten (kantoorprofessionals in de VS) aan dat zij de tool regelmatig gebruiken in hun professionele activiteiten. Slechts 22% zei dat hun werkgevers expliciet toestemming gaven voor het gebruik van deze externe hulpmiddelen.

Meldingen van problemen met ChatGPT-fouten

Chatgpt lui.
Gebruikers klagen over de dienst ChatGPT op sociale media en vooral op Reddit. Foto: Reproductie/Jornal da Band.

Gebruikers uiten hun ontevredenheid over de onbeschaamde reacties van de snuit, wat uw taken eenvoudiger zou moeten maken. Verschillende ondernemers, technologiemanagers en professionals zeggen dat de geavanceerde taalmodellen van OpenAI, zoals de GPT-4, begon te weigeren op bepaalde verzoeken te reageren. In plaats daarvan geven ze mensen instructies over hoe ze zelfstandig taken kunnen uitvoeren.

Een voorbeeld hiervan deed zich voor toen Matthew Wensing, de oprichter van een startup, GPT-4 vroeg om een ​​lijst met aankomende kalenderdata te genereren. De bot stelde aanvankelijk voor om een ​​ander hulpmiddel te gebruiken om het antwoord te vinden. Bij een andere gelegenheid, toen de chatbot werd gevraagd om ongeveer 50 regels code te genereren, bevatte het antwoord voorbeelden die Wensing als model kon gebruiken om de taak zonder AI-hulp te voltooien, zoals gedeeld door Wensing in X-screenshots.

Op Reddit melden gebruikers ook de moeilijke taak om de ChatGPT op de juiste manier reageren op de toegewezen taken, waarbij u tussen verschillende prompts moet wisselen totdat u het gewenste antwoord bereikt. Veel klachten gaan over het vermogen van de ChatGPT in het schrijven van code, en sommigen spreken de wens uit dat het bedrijf terugkeert naar de originele GPT-modellen. Bovendien wijzen gebruikers erop dat de kwaliteit van de reacties ook afneemt.

Nog in juli van dit jaar, een studie uitgevoerd door onderzoekers van Stanford en UC Berkeley wees erop dat de AI-capaciteiten achteruit gingen. De onderzoekers voerden een systematische analyse uit van de verschillende versies van de ChatGPT, het ontwikkelen van rigoureuze benchmarks om de competentie van modellen op het gebied van wiskundige taken, coderen en visueel redeneren te beoordelen.

In een wiskundige uitdaging om priemgetallen te identificeren, ChatGPT het had een nauwkeurigheid van 97,6% en loste in maart 488 van de 500 vragen correct op. In juni daalde de nauwkeurigheid echter tot 2,4%, waarbij slechts twaalf vragen correct werden beantwoord. De daling was vooral merkbaar op het gebied van codeervaardigheden voor chatbotsoftware. Het onderzoek concludeerde dat voor GPT-12 het percentage direct uitvoerbare antwoorden daalde van 4% in maart naar 52% in juni, zonder het gebruik van plug-ins voor code-interpretatie.

Wat verklaart de problemen van ChatGPT?

Chatgpt lui.
ChatGPT is sinds 11 november niet meer bijgewerkt. Foto: Jonathan Kemper/Unsplash.

In verschillende discussies op Reddit en zelfs in berichten op de eigen ontwikkelaarsforums van het bedrijf OpenAI, uitten gebruikers hun ontevredenheid en meldden dat het systeem minder bruikbaar was geworden. Bovendien werd er gespeculeerd dat deze verandering opzettelijk was aan de kant van de OpenAI, gericht op het besparen van inspanningen en financiële middelen bij investeringen in de ChatGPT.

Dit is te wijten aan het feit dat, ook al resulteert dit in slechts een paar paragrafen tekst, het geven van uitgebreidere antwoorden een grotere hoeveelheid onderzoek vergt, wat meer rekenkracht kost. De exploitatie van deze systemen wordt als kostbaar beschouwd voor de bedrijven die er eigenaar van zijn.


Terwijl de schijnbare vermoeidheid van de kunstmatige intelligentie aanhoudt, hebben gebruikers hun eigen manieren ontdekt om de normale werking van het platform te herstellen via specifieke aanwijzingen. Interessant genoeg vraagt ​​de ChatGPT om “diep adem te halen” en instructies die alleen volledige en nauwkeurige reacties opleveren, lijken effectief te zijn.

Er werden ook andere verzoeken genoemd als middel om de AI naar een assertiever format te leiden. Verzoek bijvoorbeeld dat de ChatGPT alleen antwoorden als je kennis hebt over het onderwerp, of hen vragen om aanvullende vragen te stellen om de context te begrijpen, helpt de antwoorden te verbeteren. Hetzelfde geldt voor het vragen om stapsgewijze uitleg of het instrueren van het systeem om symbolische economie te vermijden bij het genereren van resultaten.

Hoewel OpenAI niet heeft bevestigd dat dergelijke aanwijzingen het probleem oplossen, geven rapporten van gebruikers zelf op sociale media aan dat ze effectief kunnen zijn. In de tussentijd moeten we gewoon wachten op de volgende update van het AI-model die een definitieve oplossing voor het probleem brengt. ChatGPT met luiheid.

Wat OpenAI zegt over “vermoeide ChatGPT”

Problemen met chatgpt.
CEO van OpenAI, Sam Altamn, maakte een crisis door bij het bedrijf toen hij werd ontslagen en binnen een paar dagen opnieuw werd aangenomen. Foto: Reproductie/Epoca.

Na een recente crisis te hebben doorgemaakt met het recht op “stoelendans” waarbij de CEO, Sam Altamn, betrokken is, een OpenAI, via de rekening ChatGPT op X, kondigde aan dat het feedback zoekt over zijn model dat “luier” lijkt te worden. Het bedrijf verduidelijkte dat het het model sinds 11 november niet meer heeft bijgewerkt en verklaarde dat dit niet opzettelijk was:

We hebben al uw opmerkingen gehoord over het steeds luier worden van GPT4! We hebben het model sinds 11 november niet meer bijgewerkt en dat is zeker niet de bedoeling. Modelgedrag kan onvoorspelbaar zijn en we proberen dit op te lossen

Hoewel sommige medewerkers een deel van de problemen toeschreven aan een softwarefout, bleek dat de Open eenIk meldde zaterdag dat het de klachten van gebruikers blijft onderzoeken. In een ander online bericht legde het bedrijf uit dat het trainen van chatmodellen geen schoon industrieel proces is. Zie de verklaring:

Het trainen van chatmodellen is geen schoon industrieel proces. Verschillende trainingssessies, zelfs als dezelfde datasets worden gebruikt, kunnen modellen opleveren die merkbaar verschillen qua persoonlijkheid, schrijfstijl, opt-outgedrag, beoordelingsprestaties en zelfs politieke vooroordelen. Bij de lancering van een nieuw model voeren we grondige tests uit op zowel offline evaluatiestatistieken als online A/B-testen. Nadat we al deze resultaten hebben ontvangen, proberen we een datagestuurde beslissing te nemen of het nieuwe model een verbetering is ten opzichte van het vorige voor echte gebruikers.

Dit proces lijkt niet zozeer op het updaten van een website met een nieuwe functie, maar meer op een ambachtelijke inspanning van meerdere mensen om een ​​nieuw chatmodel met nieuw gedrag te plannen, creëren en evalueren! We streven er altijd naar om onze modellen capabeler en bruikbaarder te maken voor iedereen in miljoenen gebruiksscenario's. Laat de reacties dus maar komen! Dit helpt ons bewust te blijven van dit dynamische evaluatieprobleem.

De gebruikte analogie was dat dit proces minder lijkt op het updaten van een website met een nieuwe functie, maar meer op een ambachtelijke inspanning waarbij meerdere mensen betrokken zijn bij het plannen, creëren en evalueren van een nieuw chatmodel met ander gedrag. Er werd een oproep gedaan aan gebruikers om feedback te blijven geven, omdat dit het bedrijf kan helpen om te gaan met de uitdagingen bij het evalueren van zijn modellen.

Zie ook:

Fontes: Business Insider, Onafhankelijk e techradar

Beoordeeld door Glaucon Vital op 12-12-23.

Meld u aan om ons nieuws te ontvangen:

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *

Gerelateerde berichten