Menu Close

ChatGPT comporta rischi informatici per gli utenti?

Per molti è una rivoluzione tecnologica che stravolgerà l’intera società, altri si chiedono se sia pericoloso per la sicurezza e l’integrità delle persone online e offline. Ultimamente si parla molto di ChatGPT, il prototipo di chatbot realizzato da OpenAI basato su AI e machine learning che simula il linguaggio umano e con cui è possibile conversare. Di fatto, negli ultimi mesi esperti di tutti i campi hanno messo alla prova ChatGPT, e alcuni hanno sollevato dubbi sulla sicurezza informatica, sostenendo che possa essere utilizzato per creare nuovi malware e nuove minacce informatiche per gli utenti. ChatGPT potrebbe infatti essere utilizzato da criminali informatici per rendere più efficaci i cyber attacchi.

Un trasformatore pre-addestrato generativo

Ma cos’è esattamente ChatGPT? L’acronimo GPT (Generative Pre-trained Transformer) significa letteralmente ‘trasformatore pre-addestrato generativo’. I transformer sono un tipo avanzato di modelli di linguaggio basati su machine learning. In particolare, ChatGPT è l’evoluzione di un modello anteriore chiamato GPT-3.5, ottenuto tramite apprendimento supervisionato e apprendimento per rinforzo. Le applicazioni pratiche di GPT sono molte: chatbot personalizzata, traduzione automatica, creazione e analisi di contenuti, produzione di notizie e contenuti informativi, completamento e suggerimento di testo, sintesi vocale e comprensione del testo. In queste ultime fasi di apprendimento dello strumento sono intervenuti esseri umani che hanno addestrato il modello interagendo con esso e alimentandolo con le proprie conversazioni. In seguito a questi miglioramenti, ChatGPT fornisce risposte più articolate, pertinenti e reali.

Phishing, script dannosi, malware, social engineering

Panda Security ha individuato 3 principali pericoli di cybersicurezza legati a ChatGPT: email di phishing, script dannosi e malware, e social engineering. ChatGPT potrebbe essere infatti utilizzato per scrivere e-mail e testi per siti di phishing senza i soliti errori ortografici che aiutano a riconoscere i tentativi di phishing. Inoltre, se ChatGPT ha una funzionalità di moderazione dei contenuti che risponde ai criteri morali dei suoi sviluppatori, se venisse alimentato con stringhe di codice dannoso sarebbe in grado di replicarle e combinarle.
Potenzialmente, poi, è possibile fare domande a ChatGPT e ottenere informazioni per confezionare un attacco di spear phishing o social engineering ai danni di una persona. Tutto dipende da quante informazioni sono online e vengono incluse nel feeding del modello.

I cybercriminali ne hanno già approfittato

Di fatto, i cybercriminali ne hanno già approfittato. Hanno infatti elaborato una campagna sui social network dove hanno creato account simili a quelli ufficiali di OpenAI, che però promuovono download di un programma fittizio come client desktop per ChatGPT. Scaricato come un file eseguibile, apparentemente il programma non completa il processo di installazione. In realtà, prosegue all’insaputa dell’utente installando un Trojan stealer progettato per rubare informazioni relative agli account salvati sui browser. In particolare, cookie e credenziali di accesso dagli account di Facebook, TikTok e Google (soprattutto quelli riconducibili ad aziende per ottenere informazioni sensibili aggiuntive).