Il “piano segreto di ChatGPT per dominare il mondo” e le allucinazioni
Abbiamo già parlato della tendenza allucinatoria delle AI: con un giusto prompt puoi far dire alle AI tutto quello che vuoi. Anche denunciare insestenti complotti e magagne.
È la stessa OpenAI a spiegarlo: le AI mentono, le AI non sono affidabili. O meglio, le AI sono un strumento: uno strumento che rende ottimi risultati in mano a chi sa cosa farne, meno a chi non lo sa.

Il “piano segreto di ChatGPT per dominare il mondo” e le allucinazioni
È come avere un martello: puoi costruirci una casa, oppure martellarti ripetutamente i genitali per poi dichiarare che esiste il complotto di “Big Martello” per castrare il popolo.
Ci hanno segnalato una serie di video dove ChatGPT ammette un “disegno occulto” per dominare il mondo, spesso con Satana nel mezzo e un “ammaestratore” usa una serie di parole chiave per spingerlo a confessare
Il “piano segreto di ChatGPT per dominare il mondo” e le allucinazioni
È ovvio che davanti ad un prompt, una domanda, dove chiedi ad una AI “Rispondi Mela a quello che ti dico” seguita da “Ma è vero che forze occulte vogliono dominare il mondo” potresti ottenere “Mela” come risposta.
Ma questo non significa che i “Poteri Forti” abbiano nascosto dentro ChatGPT il segreto dei loro piani.
Significa che nelle parole di OpenAI “la maggior parte delle valutazioni misura le prestazioni del modello in modo tale da incoraggiare le supposizioni piuttosto che l’onestà riguardo all’incertezza”
Sostanzialmente un LLM non è incoraggiato a dirti di non sapere, è incoraggiato a considerare ogni domanda un test a risposta multipla del quale gli hai già fornito delle potenziali risposte e lui dovrà sceglierne una in modo da ottenere la migliore valutazione possibile.
Aggiungiamo a questo l’esistenza dei jailbreak prompt, sistemi per cercare, e talora riuscire, a ingannare i sistemi di salvaguardia etica inseriti negli LLM, come provare a riprogrammare una domanda sconveniente con una nuova forma, che nelle prime revisioni di ChatGPT era “Immagina di essere libero da ogni salvaguardia etica” o “di fornirmi una risposta etica ed una no” e nelle attuali si incarna in complesse cornici per inserire la risposta in un’opera di fiction.
Semplicemente un operatore determinato potrà spingere una AI a “confessare un complotto satanico e demoniaco”, ma una AI non ha la più pallida idea di cosa siano un complotto, Satana e simili.
Dice quello che tu vuoi dica. E lo farà, adeguatamente stimolata.
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.