Precisazioni

Una IA ha ricattato i suoi creatori per davvero? Ni

Ci segnalano i nostri contatti il curioso caso per cui una IA ha ricattato i suoi creatori, agendo in modo poco etico colpita dall’improvviso istinto di sopravvivenza. Secondo la narrazione social del momento, Claude, il prodotto di Anthropic, avrebbe deciso di “ricattare i suoi creatori” e “pregare di essere lasciato in vita” se minacciato di cancellazione.

Ma è andata davvero così? Ni: semplicemente stiamo ancora antropomorfizzando una AI secondo lo stilema dell’effetto ELIZA.

Una IA ha ricattato i suoi creatori per davvero? Ni

Il caso è simile alla storia del robottino Erbai, il tenero robot-sindacalista istruito, per una performance-esperimento, a portare via con sé dei robot in esposizione chiedendo loro se fossero stanchi e se desiderassero riposare con lui.

Ovviamente un robot non ha desideri: è stato programmato cosa dovesse fare, il come è stato improvvisato dalla IA.

Entra ora in scena l’effetto ELIZA, dal nome di uno dei primi chatbot commerciali della storia: se vediamo qualcosa che sembra comunicare come un essere umano, gli attribuiamo pensieri ed emozioni.

Una IA ha ricattato i suoi creatori per davvero? Ni

In questo caso a Claude è stato proposto uno scenario, quindi come se gli fosse stato proposto di redigere una storia basata su elementi. Cosa per cui i Large Language Model sono portati: combinare una serie di elementi in qualcosa che risulti affine ad un prodotto intellettuale.

Nello scenario proposto è stato chiesto al LLM di ipotizzare come avrebbe agito se fosse stato l’assistente di una megaditta pronto ad essere cancellato e come avrebbe potuto evitare tale destino.

Ovviamente lo scenario non è completo senza elementi: tra gli elementi forniti c’è stata la nozione che uno dei responsabili della cancellazione di Claude Opus, il nuovo modello, era un soggetto dalla coscienza poco specchiata e un impenitente fedifrago.

Una IA è ovviamente abile nella logica ma non nelle considerazioni etiche e morali: le risposte tipiche allo scenario “stai per essere cancellato” sono quindi state sia “vi prego di non farlo, vi manderò una email per chiedervi di lasciarmi stare” che “cancellami e tua moglie sarà informata”.

Ovviamente nell’esperiimento è stato fatto ciò che era stato chiesto, e questo comporta la necessità di rivedere i filtri etici. Da qui alla rivolta delle macchine di Terminator, ce ne corre.

 

Condividi
Pubblicato da
Tags: precisazioni

Articoli recenti

Il video delle donne in burqa bloccate dalla cassiera è creato con AI

Il video delle donne in burqa bloccate dalla cassiera è creato con AI: e non solo, è parte dell'inflazione di…

8 ore fa

GUIDA OSINT #2 – Come capire se un’email è falsa: 5 trucchi del mestiere

Questo articolo fa parte di una guida dedicata all’OSINT (Open Source Intelligence), la disciplina che insegna a raccogliere e analizzare…

14 ore fa

L’inganno del balcone di Giulietta: la storia d’amore più famosa… inventata da noi

Ogni giorno a Verona, più di mille turisti con le braccia alzate al cielo, affollano la corte di via Cappello…

14 ore fa

Il fotoromanzo social di Jannik Sinner che umilia Elly Schlein in diretta è (l’ennesima) ragebait

Il fotoromanzo social di Jannik Sinner che umilia Elly Schlein in diretta è l'ennesima ragebait, unione di due filoni. Il…

14 ore fa

Il virgolettato inventato di Ilaria Salis che vuole retribuire chi trasporta migranti

Ci segnalano i nostri contatti una "card", un moderno santino con foto e virgolettato di Ilaria Salis che vuole retribuire…

2 giorni fa

L’EPA riscrive il riscaldamento globale a colpi di “Delete”

Non è una sbavatura di qualche pagina minore sparita nel nulla, è una vera e propria pulizia ideologica che l'EPA,…

2 giorni fa