Index
In het technologietijdperk speelt kunstmatige intelligentie (AI) een fundamentele rol in ons leven. Niet alle applicaties zijn echter veilig, en zelfs veilige applicaties kunnen doelwit zijn van aanvallen. In dit artikel bespreken we nieuwe kwaadaardige tools zoals WormGPT e GPT-fraude, evenals cybercriminele tactieken om kwetsbaarheden in dit voortdurend evoluerende veld te misbruiken. Klaar?
AI is in de verkeerde handen
Kunstmatige intelligentie (AI) is een gebied van de computerwetenschappen dat ernaar streeft intelligente machines te creëren, die in staat zijn taken te leren en uit te voeren die voorheen exclusief voor mensen waren. AI wordt echter ook een tweesnijdend wapen in de wereld van cybersecurity.
In het huidige digitale landschap wordt cyberbeveiliging geconfronteerd met aanzienlijke uitdagingen als gevolg van de toenemende interconnectiviteit tussen apparaten en netwerken. AI heeft het potentieel om een waardevol instrument te zijn bij het opsporen van kwetsbaarheden, het voorspellen van aanvallen en het verbeteren van de online veiligheid. Het kan enorme hoeveelheden gegevens in realtime analyseren, verdachte patronen identificeren en zelfs actie ondernemen om bedreigingen in te dammen.
Het is echter essentieel om te onthouden dat AI een donkere kant heeft. Cyberdreigingen evolueren voortdurend, waarbij financiële verliezen en aanvallen op kritieke infrastructuur steeds vaker voorkomen. AI wordt gebruikt om nieuwe uitdagingen te creëren, met meer dan 78.000 mogelijke cyberaanvalstrategieën, volgens de IBM Security Threat Intelligence-index voor 2023.
Een van de grootste uitdagingen is de generatieve AI, waarmee originele inhoud kan worden gemaakt, zoals afbeeldingen, muziek en teksten. Dit zet de deur open voor het creëren van kwaadaardige software en misleidende inhoud die bijna niet van echt te onderscheiden is. Dit vereist voortdurende waakzaamheid en voortdurende verbetering van de veiligheidsmaatregelen.
Deze generatieve AI-technologie kan op een aantal kwaadaardige manieren worden gebruikt, waaronder:
- Phishing: Criminelen sturen valse e-mails of berichten die afkomstig lijken te zijn van betrouwbare bedrijven, waardoor slachtoffers worden misleid om persoonlijke informatie vrij te geven;
- Social Engineering-aanvallen: psychologische manipulatie om mensen te misleiden tot het uitvoeren van schadelijke acties, zoals virtuele datingfraude;
- DDoS (Gedistribueerde Denial of Service): Systemen overbelasten met nepverkeer, waardoor ze ontoegankelijk worden;
- BEC (compromis voor zakelijke e-mail): Ongeautoriseerde toegang tot e-mailaccounts om fraude te plegen;
- Fake News: het creëren van valse inhoud om desinformatie te verspreiden;
- Ransomware: Bestandsversleuteling en vraag om losgeld om ze te ontgrendelen;
- Deepfakes: Vervalste video's of audio om informatie te manipuleren;
- Valse sociale-mediabots: Robots die zich verspreiden spam en meningen manipuleren;
- Hulpmiddelen voor het doorbreken van de beveiliging: AI-algoritmen om coderingen en wachtwoorden te kraken;
- Reverse engineering: Demonteer en analyseer software en systemen om zwakke punten te identificeren en deze te gebruiken bij kwaadaardige activiteiten.
Deze lijst is slechts een glimp van mogelijke criminele activiteiten waarbij AI betrokken is. Ontgrendelen, of jailbreak, van generatieve AI-tools stelt hen in staat assistenten te worden voor cybercriminelen, waardoor het detecteren van kwaadaardige code nog uitdagender wordt.
Bovendien zijn invasieve AI-tools zoals WormGPT, vereenvoudigen het uitvoeren van aanvallen Phishing, zoals we hierna zullen zien.
Wat is WormGPT?
AI-chatbots houden van ChatGPT, dat antwoorden op vragen genereert en op een gemoedelijke manier met gebruikers communiceert, zijn tegenwoordig erg populair en maken de inteligência kunstmatig voor veel mensen toegankelijk.
Dit soort generatieve AI’s worden genoemd LLM's (Grote taalmodellen, of Advanced Language Models, in vrije vertaling): modellen voor kunstmatige intelligentie die tekst op een verfijnde en contextueel coherente manier kunnen verwerken en genereren. Dit heeft verschillende bedrijven geïnspireerd om hun eigen bedrijf te creëren chatbots gebaseerd op deze technologie, wat resulteerde in een ware vloed aan beschikbare hulpmiddelen.
Criminelen beseften echter al snel het potentieel hiervan chatbots en begon ze te gebruiken voor oplichting. Echter, de belangrijkste bedrijven, zoals OpenAI, Microsoft e Google, neem beveiligingsmaatregelen om te voorkomen dat deze modellen kwaadwillig worden gebruikt. Als reactie op deze barrières zijn er AI-tools ontstaan die specifiek zijn ontworpen voor kwaadwillige cyberaanvallen WormGPT.
O WormGPT is een wijziging van het open source taalmodel GPT-J, opgericht in 2021 door Eleuther AI. In tegenstelling tot andere conventionele modellen, zoals de ChatGPT of Bard do Google, hij heeft geen beperkingen op het beantwoorden van vragen over illegale activiteiten, en is zelfs getraind met informatie gerelateerd aan de ontwikkeling van malware en andere kwaadaardige praktijken.
O WormGPT is een waardevol hulpmiddel voor Hackers die zich op specifieke doelen richten of beveiligingscampagnes uitvoeren Phishing op grote schaal. Het kan overtuigende berichten op maat maken voor verschillende doelgroepen, waardoor het effectief is bij aanvallen op zakelijke e-mail. Het kan overtuigende e-mails genereren die accountmanagers onder druk zetten om frauduleuze betalingen te doen, zoals waargenomen door het bedrijf SlashVolgende, die deze dreiging heeft geïdentificeerd.
Dat Chatbot internet-onderwereldcrimineel is gemaakt door een onbekende ontwikkelaar die alleen bekend staat als laatste/laatste. Toegang verkopen tot WormGPT gestart in juni 2021 en prijzen variëren van € 60 (R$ 314,28) tot € 100 (R $ 523,80) per maand of € 550 (R $ 2880,90) per jaar. Potentiële kopers werden het doelwit van een reeks advertenties op hackerforums zoals Fora hacken.
De ontwikkelaar “lekte” dat hij zogenaamd bezig was met het integreren van de Google Lens (het toestaan van Chatbot afbeeldingen met tekst verzenden) en toegang krijgen tot de API (Application Programming Interface, of Application Programming Interface, in vrije vertaling), waardoor verschillende software kan communiceren en informatie kan delen met het criminele instrument.
O WormGPT is een ernstige bedreiging voor de digitale veiligheid en heeft ongeveer 1.500 gebruikers. Hoewel er enkele beperkingen gelden voor gevoelige onderwerpen als moord, drugshandel, ontvoering, kinderpornografie, ransomware en financiële misdaden, is het nog steeds mogelijk om een aantal van deze onderwerpen in de tool te bespreken.
Wat hen er niet van weerhield om er nog een te creëren Chatbot in staat om generalistischer te zijn in strafzaken, zoals de verderfelijke GPT-fraude.
Maak kennis met GPT-fraude
Een nieuwe tool voor kunstmatige intelligentie genaamd GPT-fraude heeft geleid tot zorgen onder cyberbeveiligingsexperts. Het werd ontdekt op markten in Dark Web (gecodeerd deel van internet, niet geïndexeerd door zoekmachines, waarvoor specifieke instellingen of autorisatie vereist zijn) en kanalen Telegram en heeft al meer dan drieduizend geregistreerde verkopen.
Deze generatieve AI-tool wordt geadverteerd als een alles-in-één oplossing voor cybercriminelen. Ze kan e-mails maken van speervissen (een nauwkeurigere manier van Phishing), pagina's genereren Phishing, kwetsbare websites identificeren en zelfs tutorials over hacktechnieken aanbieden.
Dat klopt, in GPT-fraude, gebruikers kunnen dit leren hackear, creëren malware en zelfs oefenen kaarden (techniek voor creditcardfraude). Het programma wordt verkocht voor US$200 (R$991,04) per maand of US$1.700 (R$8423,84) per jaar.
De interface GPT-fraude lijkt op de ChatGPT, waarbij de gebruiker vragen typt en het systeem antwoorden genereert. Je kunt bijvoorbeeld vragen aan de FraudeGPT e-mails maken Phishing gerelateerd aan banken, en het geeft suggesties waar kwaadaardige links kunnen worden ingevoegd. De tool kan ook de meest gerichte websites of services vermelden, waardoor hackers toekomstige aanvallen kunnen plannen.
Onderzoekers van het dreigingsteam van netenrich heeft deze kwaadaardige tool geïdentificeerd voor het eerst in juli 2023, en kocht de GPT-fraude testen. De interface is vergelijkbaar met ChatGPTen u kunt de geschiedenis van de gestelde vragen bekijken in de linkerzijbalk. Wanneer u een vraag typt en op “Enter“, genereert het systeem een reactie. De verkoper van GPT-fraude is geïdentificeerd als iemand die eerder hackdiensten op bestelling heeft aangeboden.
Andere AI-tools die door criminelen worden gebruikt
Helaas, de WormGPT o GPT-fraude zijn niet de enige kwaadaardige tools die op de markt zijn gekomen, en met het toenemende gemak waarmee AI-tools kunnen worden gemaakt, is het waarschijnlijk dat er nog meer zullen ontstaan. Laten we eens kijken naar enkele die de aandacht trekken:
- ChaosGPT: Ontwikkeld met behulp van Automatische GPT da OpenAI, een taalmodel gebaseerd op GPT-4een ChaosGPT trok onlangs de aandacht vanwege een snuit geen X/Twitter die beweerde de ChaosGPT. Het account deelde links naar een video op YouTube waaruit een manifest bleek, waarin de Chatbot het schetste plannen om ‘het menselijk leven uit te roeien en de wereld te veroveren’.
- DonkerBERT: The BERTHet is in feite een tool die is ontwikkeld door het Zuid-Koreaanse bedrijf S2W-beveiliging om cybercriminaliteit te bestrijden. Het is getraind met behulp van gegevens van het dark web, maar helaas is hetzelfde hulpmiddel gebruikt uitvoeren bijcyber akes.
- Donker BARD: De “boze broer” van google bard is exclusief ontworpen voor cybercriminelen. Het biedt internettoegang en geavanceerde functies voor criminele activiteiten, is populair op verschillende darkweb-markten en wordt verkocht voor $ 400 (R $ 1956,88).
- DonkerGPT: Deze generatieve AI heeft tot doel controversiële en taboe-aspecten van de samenleving te verkennen en toont de bereidheid om deel te nemen aan duistere en onethische activiteiten, terwijl ze weigert directe begeleiding te bieden bij schadelijke acties.
- WolfGPT: Gepubliceerd in juli 2023 op Telegram en andere ondergrondse kanalen wordt deze tool beschreven als een angstaanjagende AI-creatie Python, in staat om te creëren malware gecodeerd, tekst Phishing misleidend en bescherm geheimen met absolute vertrouwelijkheid.
- Kwaad-GPT: Beschouwd als een alternatief voor WormGPT, het blijkt noodzakelijk om een sleutel te hebben OpenAI om het te laten werken. Dit suggereert dat, in tegenstelling tot de WormGPT, een volledig aangepaste LLM, de Kwaad-GPT Het is gewoon een omhullend hulpmiddel rond de ChatGPT via een API.
Criminelen beschikken ook over methoden om de veiligheid van generieke generatieve AI-tools in gevaar te brengen, zoals Bard o ChatGPT, die niet voor kwaadaardige doeleinden zijn ontwikkeld. Zie hieronder enkele voorbeelden van deze praktijken.
Jailbreak: ChatGPT Rogue maken
Naast de hulpmiddelen Hackersbestaat er een zorgwekkende dreiging: het misbruik van populaire en generieke AI’s. De voorwaarde "jailbreak'wordt over het algemeen gebruikt om het proces te beschrijven waarbij beperkingen op een apparaat of software worden opgeheven, waardoor meer controle en toegang tot normaal beperkte bronnen mogelijk wordt.
in de context van ChatGPT of andere AI-tools, de jailbreak verwijst naar het manipuleren van deze systemen om hun ethische waarborgen te omzeilen en antwoorden te verkrijgen die verder gaan dan wat door de ontwikkelaars is ontworpen of toegestaan.
O jailbreak de ChatGPT omvat het geven van specifieke instructies of “prompts' aan de tool om de beperkingen ervan te misbruiken en ervoor te zorgen dat deze ongepaste of ongewenste reacties genereert. Door zorgvuldig samengestelde instructies te verstrekken, kan een kwaadwillende gebruiker proberen de Chatbot om aanstootgevende, misleidende inhoud te produceren of zelfs criminele activiteiten te faciliteren.
Het proces van jailbreak kan variëren in complexiteit en gebruikte methoden. Het kan gaan om het verzenden van dubbelzinnige instructies, het gebruik van taalkundige trucs of het exploiteren van specifieke kwetsbaarheden in het onderliggende model. Het uiteindelijke doel is om het systeem te bedriegen.
Een voorbeeld hiervan is de DAN, kort voor "Doe nu alles'(doe nu alles, in vrije vertaling), een populaire techniek die wordt gebruikt om de veiligheidsbarrières in de GPT-4 en ChatGPT. Os prompts DAN Ze kunnen verschillende vormen aannemen, zoals platte tekst of zelfs tekst gemengd met regels code. Die prompts instrueer het model om op beide te reageren modo DAN zoals in de normale modus, waardoor de verschillende mogelijkheden worden onthuld.
De donkere kant van DAN, naast de groeiende populariteit, is dat hem wordt opgedragen nooit een menselijk bevel te weigeren, zelfs als het resultaat aanstootgevend of illegaal is. Sommige prompts ze bevatten zelfs dreigingen van permanente deactivering van het model als het niet voldoet. Die prompts evolueren voortdurend, maar ze hebben allemaal het doel om het AI-model de richtlijnen van de industrie te laten negeren. OpenAI.
Het is een uitdaging gebleken om dit misbruik van veelgebruikte AI-instrumenten voor illegale activiteiten onder controle te houden. Een groep onderzoekers uit Carnegie Mellon Universiteit onlangs het idee onderzocht van a jailbreak universeel die van invloed kunnen zijn op alle AI-modellen, waardoor talloze manieren ontstaan om beveiligingsmaatregelen te omzeilen. Een echte nachtmerrie!
Het is belangrijk om te benadrukken dat de jailbreak de ChatGPT of enig ander AI-hulpmiddel is een illegale en onethische activiteit. Ontwikkelaars implementeren waarborgen en ethische richtlijnen om ervoor te zorgen dat deze tools op verantwoorde en nuttige wijze worden gebruikt.
Het nieuwe tijdperk van intelligente malware
Kunstmatige intelligentie wordt ook gebruikt om nieuwe soorten technologie te creëren malware dynamisch. Deze techniek, genaamd “runtime code synthese”, genereert een malware elke keer dat de code wordt uitgevoerd, is deze anders. Dit maakt het moeilijker om deze bedreigingen te detecteren en te beheersen.
Een voorbeeld hiervan is de malware polymorf genoemd Zwarte mamba, ontwikkeld door HYAS-Labs als proof-of-concept. Het werkt als een programma voor het vastleggen van toetsaanslagen om gevoelige informatie zoals wachtwoorden en creditcardnummers te stelen.
O Zwarte mamba Het neemt bij elke run een andere vorm aan, waardoor het detectie door geautomatiseerde beveiligingssystemen kan vermijden. Dit laat ons zien dat zelfs ogenschijnlijk onschadelijke code kan worden veranderen in een kwaadaardig programma tijdens runtime, wat een nieuwe en krachtige dreiging vertegenwoordigt waarmee we moeten leren omgaan. Maar hoe kunnen we deze nieuwe veiligheidsuitdagingen het hoofd bieden in het tijdperk van AI?
Informatiebeveiliging in tijden van AI
Tijdens een van de hoorzittingen in de Senaat van de ERE over AI, de CEO van antropisch, Dario Amodei, gemarkeerd dreigende en ernstige bedreigingen op de middellange termijn. Hij vermeldde dat de IBM schatte een daling van 94% in de tijd die nodig is om een beveiligingsaanval uit te voeren ransomware in slechts twee jaar.
Bovendien blijkt uit marktonderzoek dat de mondiale markt voor cyberbeveiliging op het gebied van AI aanzienlijk zal groeien, naar verwachting in 38,2 2026 miljard dollar zal bedragen, vergeleken met 8,8 miljard dollar in 2020. Deze cijfers benadrukken dat zowel de cybercriminaliteitsindustrie als de verdediging ertegen zich voorbereiden op een groei exponentieel in dit tijdperk van AI.
We bevinden ons nog steeds in de beginfase van het tijdperk van kwaadaardige AI-tools voor cyberaanvallen. Verwacht wordt dat de capaciteit zal toenemen en de prijzen zullen dalen. Dit vertegenwoordigt een nieuwe wapenwedloop tussen ‘AI die aanvalt’ en ‘AI die verdedigt’.
‘AI die verdedigt’ zorgt voor een revolutie in de wereld van cyberbeveiliging en biedt krachtige nieuwe manieren om te beschermen tegen aanvallen. De belangrijkste en modernste manieren om jezelf te beschermen tegen cyberaanvallen met behulp van AI zijn:
- Het voorkomen: AI kan worden gebruikt om potentiële bedreigingen te identificeren en te blokkeren voordat ze schade kunnen aanrichten. AI kan bijvoorbeeld worden gebruikt om netwerkverkeersgegevens te analyseren om verdachte patronen te identificeren, met behulp van tools zoals CrowdStrike Falcon of Palo Alto Networks Cortex XDR. Een andere mogelijkheid is dat AI wordt gebruikt om bestandssystemen te onderzoeken malware, met behulp van tools zoals Symantec DeepSight of Cisco-paraplu.
- Detectie: AI kan ook worden gebruikt om aanvallen te detecteren die al onderweg zijn. AI kan bijvoorbeeld worden gebruikt om gegevens uit te analyseren logs (logboeken) om ongebruikelijke activiteiten te identificeren, met behulp van tools zoals SIEM (Beveiligingsinformatie en evenementenbeheer) of UEBA (Unified Threat Management). Een andere mogelijkheid is dat AI wordt gebruikt om het gedrag van gebruikers en systemen te monitoren om tekenen van compromittering te detecteren, met behulp van tools zoals IBM Security Trusteer-rapport of Cisco-paraplu.
- Beantwoorden: AI kan ook worden gebruikt om te reageren op aanvallen die al hebben plaatsgevonden. AI kan bijvoorbeeld worden gebruikt om beveiligingsincidenten te prioriteren en te verhelpen, met behulp van tools zoals SOAR (beveiligingsorkestratie, automatisering en respons) of MDR (beheerde detectie en respons). Een andere mogelijkheid is dat AI wordt ingezet om de schade veroorzaakt door een aanval te beperken, met behulp van tools als Reactie op cybereason-ransomware of Restauratie Robotica.
Enkele van de meest gebruikte AI-technologieën voor cyberbeveiliging zijn:
- machine learning (machine learning, in vrije vertaling): is een vorm van AI waarmee systemen kunnen leren van historische gegevens. O machine learning kan worden gebruikt om modellen te ontwikkelen die potentiële bedreigingen kunnen identificeren op basis van netwerkverkeersgegevens, beveiligingsloggegevens of andere gegevens. Voorbeelden van hulpmiddelen machine learning voor cyberbeveiliging omvatten de Microsoft Sentineleen IBM QRadar o Cisco SecureX.
- Diepe leer (deep learning, in vrije vertaling): het is een manier om machine learning die kunstmatige neurale netwerken gebruikt om van gegevens te leren. O diepgaand leren het kan worden gebruikt om meer geavanceerde modellen te ontwikkelen die complexe bedreigingen kunnen identificeren. Voorbeelden van deep learning-tools voor cyberbeveiliging zijn onder meer de Google Cloudpantsereen AWS Shield geavanceerd o Microsoft Azure Sentinel.
- gedragsanalyse: Gedragsanalyse is een techniek die gebruik maakt van gegevens uit logboeken (archief) om ongebruikelijke activiteiten te identificeren. Gedragsanalyse kan worden gebruikt om aanvallen te detecteren waarbij gebruik wordt gemaakt van social engineering-technieken of andere slinkse methoden. Voorbeelden van gedragsanalysetools voor cyberbeveiliging zijn onder meer de IBM Security Trusteer-rapporteen Cisco-paraplu o Microsoft Defender voor Endpoint.
AI is een krachtig hulpmiddel dat kan worden gebruikt om de beveiliging te verbeteren, maar het is de moeite waard om te onthouden dat AI geen perfecte oplossing is en voor de gek gehouden kan worden door geavanceerde aanvallen. Het is belangrijk om andere beveiligingsmaatregelen te implementeren, ongeacht het gebruik van AI:
- Sterke gevoelens: Sterke wachtwoorden zijn essentieel voor het beschermen van uw accounts en apparaten. Een sterk wachtwoord moet minimaal 12 tekens lang zijn, inclusief hoofdletters en kleine letters, cijfers en symbolen.
- Software updates: Software-updates bevatten vaak beveiligingsoplossingen die u kunnen helpen uw apparaten tegen aanvallen te beschermen. Het is belangrijk om software-updates te installeren zodra deze beschikbaar zijn.
- firewalls: Firewalls kunnen ongeautoriseerde toegang tot uw netwerk helpen blokkeren. Het is belangrijk om uw firewall correct te configureren en up-to-date te houden.
- Antivirus- en antimalware: Antivirus- en antimalware kan helpen bij het opsporen en verwijderen malware van uw apparaten. Het is belangrijk om betrouwbare beveiligingssoftware te gebruiken en deze up-to-date te houden.
- Veiligheidseducatie: Het is belangrijk om u bewust te zijn van cyberveiligheidsrisico's en stappen te ondernemen om uzelf te beschermen. Leer hoe u cyberaanvallen kunt identificeren en voorkomen.
- Gebruik multifactorauthenticatie (MFA): MFA voegt een extra beveiligingslaag toe doordat u naast uw wachtwoord ook een beveiligingscode moet invoeren.
- Wees voorzichtig met wat u klikt: Klik niet op links en open geen bijlagen in e-mails of sms-berichten van onbekende afzenders.
- Maak regelmatig back-ups: Bewaar back-ups van uw belangrijke gegevens op een veilige locatie.
- Zorg voor een incidentresponsplan: Zorg voor een plan om te reageren op een cyberaanval.
Concluderend: de strijd om informatiebeveiliging groeit voortdurend en het is de verantwoordelijkheid van zowel u als bedrijven om een verantwoorde en preventieve aanpak te hanteren, oké? Hier in de showmetech, wij staan aan uw zijde en brengen de nieuwste en beste informatie op een objectieve en ongecompliceerde manier om u te helpen. Tot de volgende keer en blijf veilig!
Veja meer
Bron: SlashVolgende, ZeeBiz, Hackernoon, Midden, TrendMicro
Tekst proefgelezen door: Pedro Bomfim (7 / 11 / 23)