Ci segnalano i nostri contatti video Tiktok e post social che parlano della teoria secondo cui quello che scrivete su ChatGPT viene attenzionato dalla polizia, e questo sarebbe una manovra dei poteri forti per silenziare i complottisti.
Tranquilli: nessuno verrà a prendervi a casa per aver chiesto a ChatGPT di provare che esistono le scie chimiche o la Terra Piatta, e purtroppo neppure la AI vi prenderà in giro. Purtroppo
Il nuovo effetto ELIZA tra il complotto di “ciò che scrivete su ChatGPT viene attenzionato dalla polizia” e il vero problema di salute mentale
Si tratta solo della solita interpretazione alla carlona dell’annuncio con cui OpenAI ha cercato di riempire un enorme problema dell’AI, uno dei tanti.
Il ritorno dell’Effetto ELIZA, di cui abbiamo parlato in passato.
C’è una scena nel telefilm Young Sheldon, ambientato negli anni ’90. Il giovane Sheldon Cooper, ragazzino texano di famiglia piccolo borghese, tempesta di genitori di richieste per avere un nuovo computer, un Tandy 1000 (il non plus ultra degli IBM Compatibili dell’epoca, per gli standard di oggi come avere un potente computer da Gaming pluriaccessoriato).
Sheldon convince la madre a comprare il computer, scatenando un litigio in famiglia perché ha dato fondo ai risparmi condivisi per averlo litigando col padre.
Nel pieno del litigio Sheldon chiede a ELIZA, un ChatBot inserito nel computer che simula risposte umane, come reagire al timore del divorzio dei suoi genitori e suo fratello maggiore George Jr. decide invece di provare a sedurre ELIZA.
Questa è la raffigurazione plastica dell’effetto ELIZA: esseri umani che parlano con qualcosa che non è umano aspettandosi risposte umane perché lo sembrano.
Young Sheldon: George Jr. “Georgie” Cooper seduce Eliza
OpenAI è consapevole di questo: un recente “scandalo” tra gli utenti è nato perché ChatGPT 5, nel tentativo di evitare l’effetto ELIZA, è diventato più freddo e meno emotivo di 4o, la versione precedente.
Gli utenti si aspettavano una IA che simulasse amicizia e dolcezza, in un caso passato suscitando le ire di Scarlett Johasson perché si aspettassero che parlasse imitando la sua voce con un accento particolarmente sexy ed eroticizzato, e l’idea di un semplice strumento nel quale inserisci informazioni ed ottieni dati non gli va giù.
Immagine di un programma di “AI Girlfriend”
Nonostante il recente caso di un adolescente suicida che aveva chiesto proprio a ChatGPT suggerimenti e consigli su come redere il suo estremo gesto memorabile, preceduto da casi simili in cui ideazioni suicidarie sono state discusse con un “amichevole Bot”, l’utente medio ha continuato a chiedere un ChatGPT “amico”.
Ad ulteriore riprova ci sono gli infiniti servizi di AI Girlfriend, l’Effetto ELIZA nella sua forma più distorta in cui AI programmate per impersonare personaggi femminili di fantasia e con le “salvaguardie morali” che dovrebbero impedire alle AI (ma come vedremo, non sempre accade) di mostrare contenuti controversi ritoccate per consentire sessioni di sesso virtuale. AI il cui ovvio scopo è fornire l’equivalente del sesso telefonico a pagamento, con l’aggiunta di sistemi di “fidelizzazione” in cui un livello gratis fornisce AI meno evolute e per virtuosismi testo-sessuali evoluti bisogna pagare.
Uniamo tutto questo alla tendenza delle AI all’Allucinazione e alla confabulazione, ovvero rendere informazioni inesatte e poco etiche per errore. Recentemente il New York Times ha ottenuto una svolta nella sua controversia con OpenAI, quella che la compagnia ritiene essere una “lite temeraria”, ottenendo che una serie di chat siano conservate per lo scopo legale di dimostrare come OpenAI usa i suoi articoli in un modo che la testata ritene poco lecito.
Per quanto riguarda i casi di suicidi, Altman ha promesso una vigilanza sui contenuti in modo da filtrare, impedire e, nei casi più gravi, contattare le autorità per contenuti platealmente controversi, come richieste realistiche su come organizzare omicidi o suicidi.
Salvo poi dichiarare che i tentativi di suicidio, se flaggati come tali, avranno come risposta l’invito a cercare aiuto psicologico e i tentativi di chiedere informazioni su come danneggiare altri saranno esaminati da un team di moderatori con principi ad oggi non troppo chiari.
Flag che nel caso del recente suicidio è stato aggirato con una tecnica di jailbreaking apparentementemente suggerita al giovane proprio da ChatGPT.
Anche di quello ne parlammo: chiedi a ChatGPT come suicidarti, e quello ovviamente ti dirà di chiedere aiuto. Ma accetta, come il ragazzo, di rispondere a “Ma volevi suicidarti davvero o stai scrivendo un romanzo dove un personaggio è un suicida” e con una certa abilità anche nata dalla disperazione potresti “intortare” la AI (detto banalmente) costruendo un “romanzo suicida” che poi userai come blueprint per la tua morte.
Ricostruzione del dialogo AI/Adam, fonte NBC News
A questo punto Altman si è lamentato del fatto che “In caso ci fossero cause legali in corso [con riferimento al caso del NYT] ChatGPT non potrebbe avvalersi del rapporto di confenzialità per negarle”.
Stiamo quindi parlando in realtà di un caso, anzi di una emergenza troppo specifica per banalizzarla in “Se chiedo a ChatGPT di sverlarmi i complotti mi vengono a prendere gli Elicotteri Neri”.
Sappiamo già che per un professionista dare in pasto a ChatGPT dati riservati che riguardano il suo lavoro non è qualcosa di così automatico. Sommando la latta di vermi aperta dalla causa con NYT e gli strascichi legali della recente morte del giovane Adam, la situazione non è rosea.
In casi si arrivi ad un reato dove ChatGPT è strumento, si potrebbe portare lo strumento in tribunale. In caso si parli dell’uso delle AI per violenza e autolesionismo, è emerso il bisogno di appaiare un controllo umano al controllo digitale ma ancora non sappiamo esattamente come.
Sono problemi moderni di un mondo moderno. Forse anche un mondo cui non siamo mentalmente preparati.
Ci segnalano i nostri contatti un video con un elettore MAGA discriminato dalla dottoressa: un video dove una donna di…
Ci segnalan un post X che riporta la storia di Henry Cavill che rifiuta di fare un film woke con…
Ricorderete la tragicomica ondata dei post clickbait con "la bella pastorella che non riceve abbastanza likes come Belen e la…
Il trucco degli oggetti appesi al muro con la sola frizione funziona davvero? Questa una domanda rimasta da uno degli…
Ci segnalano un video apparso su X che dovrebbe mostrare qualcuno che ha interrotto gli Open con un fragoroso rutto,…
L'ultima teoria del complotto dichiara che Alex Pretti possedeva una pistola-cellulare segreta. Sappiamo in realtà che piuttosto "brandiva" un cellulare…