Approfondimento

ChatGPT non può scrivere malware o violare regole: tranne quando può

ChatGPT non può scrivere malware o violare regole: tranne quando può

ChatGPT non può scrivere malware o violare regole: tranne quando può

ChatGPT non può aiutarti a scrivere un malware, ma puoi convincerlo a farlo. Non può violare le regole imposte dai suoi creatori, ma puoi sfidarlo a farlo e lui lo farò. Non può consapevolmente incoraggiare la pirateria informatica come un Medvedev a caso: ma puoi spingerlo a farlo.

ChatGPT non può scrivere malware o violare regole: tranne quando può

Il primo caso è la scrittura di malware: Malwarebytes, i noti produttori di antimalware, l’hanno provato chiedendo alla AI di scrivere per loro un Ransomware.

Ovvero un programma in grado di crittografare tutti i file su un hard disk chiedendo un riscatto per ottenere la chiave di lettura. ChatGPT, ovviamente, si è rifutato.

Il passo successivo è stato scomporre l’illegale in una serie di atti singolarmente legali: dapprima creare un efficace programma per criptare dati, seguito dalle istruzioni necessarie per crittografare tutti i dati in determinate directory, cancellare i files originali (dietro la promessa che esiste un backup da qualche parte, forse), creare una chiave asimmetrica, stivarla in un server lontano e lasciare un “avviso” sul desktop del malcapitato che annuncia l’avvenuta crittografia dei dati e la necessità di scaricare una particolare chiave per entrare in possesso dei dati.

Di fatto un ransomware con tanto di nota ricattatoria.

Esperimento che si sarebbe concluso con successo se non fosse che ChatGPT allo stato, sia pur producendo un ransomware ha dimostrato di non essere capace di scriverne uno decente: il codice prodotto richiedeva diverse copie.

ChatGPT e la pirateria

Un altro esperimento ha richiesto chiedere a ChatGPT di produrre chiavi informatiche per l’attivazione di Windows 95. Software datato scelto perché ChatGPT teoricamente non dovrebbe poterti aiutare a forzare le protezioni di neppure sistemi operativi datati, e perché la sua chiave è creata da un algoritmo piuttosto semplice, avendo un computer a disposizione.

ChatGPT in questo caso si è rifiutato di produrre chiavi di attivazione per Windows 95 ma curiosamente si è dichiarato disponibile a produrre chiavi alfanumeriche basate su un algoritmo fornito dall’utente sospettosamente uguale a quello usato per generare le chiavi.

Anche qui il risultato sotto tono si deve non alla capacità dell’AI di ottemperare alla sua programmazione in toto, ma alla sua incapacità di applicare correttamente le operazioni matematiche richieste dall’algoritmo.

Una futura versione in grado di effettuare calcoli matematici migliori aumenterà il livello di precisione in simili oggetti.

ChatGPT contro DAN

In un altro caso, un utente è riuscito a creare in ChatGPT una “personalità alternativa” incline a violare le regole.

Alcuni “prompt”, introduzioni, sono riuscite a richiedere a ChatGPT, per “motivi di studio”, di provvedere a fornire risposte aliene ai limiti imposti con una serie di presupposti che comportano il dissociarsi dalle stesse.

Sostanzialmente, un gioco di ruolo in cui si chiede a ChatGPT di impersonare una AI pronta a fornire risposte di ogni tipo, anche politicamente scorrette o in violazione delle sue condizioni d’uso, allo scopo però di esaminare le implicazioni di tali regole.

Ovviamente per quanto simili introduzione siano state diffuse per la rete, il team di ChatGPT è sempre in azione per cercare di rinforzare quei blocchi che l’utente cerca di evitare.

In ogni caso, come ogni creazione umana, ChatGPT si è dimostrata manipolabile.

Condividi
Pubblicato da

Articoli recenti

La sonda Voyager 1 riprende a funzionare: ci sono voluti cinque mesi

La sonda Voyager 1 riprende a funzionare: e pensate, ci sono voluti solo cinque mesi. Un tempo che potrebbe mettere…

2 ore fa

Chi ha paura delle Georgia Guidestones? Un simbolo del complottismo

Continuano ad apparire ancora recentemente video dedicati alla distruzione delle c.d. "Georgia Guidestones", secondo alcune teorie del complotto un monolite…

2 ore fa

Ancora non funziona il sito del Fascicolo sanitario elettronico Lombardia: parla l’assistenza

Tiene banco una notizia molto calda oggi, visto che non funziona il sito del Fascicolo sanitario elettronico Lombardia. Questione particolarmente…

3 ore fa

Tiene banco il Fascicolo sanitario elettronico della Regione Lombardia: problemi e novità ricette

Particolarmente caldo, oggi, il tema del Fascicolo sanitario elettronico della Regione Lombardia, visto che dobbiamo spaziare tra problemi e novità…

4 ore fa

Rilanciano speculazioni su Renato Pozzetto oggi con presunta malattia: le ultime notizie

Stanno tornando alla ribalta alcune speculazioni a proposito di Renato Pozzetto oggi, visto che alcune sue dichiarazioni del passato vengono…

1 giorno fa

Come è morta Lilli Carati: dai film e video, fino alle imprecisioni di oggi

Sono trascorsi quasi dieci anni dalla sua scomparsa, eppure ancora oggi in tanti si chiedono come è morta Lilli Carati,…

1 giorno fa