Una IA ha ricattato i suoi creatori per davvero? Ni

Ci segnalano i nostri contatti il curioso caso per cui una IA ha ricattato i suoi creatori, agendo in modo poco etico colpita dall’improvviso istinto di sopravvivenza. Secondo la narrazione social del momento, Claude, il prodotto di Anthropic, avrebbe deciso di “ricattare i suoi creatori” e “pregare di essere lasciato in vita” se minacciato di cancellazione.
Ma è andata davvero così? Ni: semplicemente stiamo ancora antropomorfizzando una AI secondo lo stilema dell’effetto ELIZA.
Una IA ha ricattato i suoi creatori per davvero? Ni
Il caso è simile alla storia del robottino Erbai, il tenero robot-sindacalista istruito, per una performance-esperimento, a portare via con sé dei robot in esposizione chiedendo loro se fossero stanchi e se desiderassero riposare con lui.
Ovviamente un robot non ha desideri: è stato programmato cosa dovesse fare, il come è stato improvvisato dalla IA.
Entra ora in scena l’effetto ELIZA, dal nome di uno dei primi chatbot commerciali della storia: se vediamo qualcosa che sembra comunicare come un essere umano, gli attribuiamo pensieri ed emozioni.

Una IA ha ricattato i suoi creatori per davvero? Ni
In questo caso a Claude è stato proposto uno scenario, quindi come se gli fosse stato proposto di redigere una storia basata su elementi. Cosa per cui i Large Language Model sono portati: combinare una serie di elementi in qualcosa che risulti affine ad un prodotto intellettuale.
Nello scenario proposto è stato chiesto al LLM di ipotizzare come avrebbe agito se fosse stato l’assistente di una megaditta pronto ad essere cancellato e come avrebbe potuto evitare tale destino.
Ovviamente lo scenario non è completo senza elementi: tra gli elementi forniti c’è stata la nozione che uno dei responsabili della cancellazione di Claude Opus, il nuovo modello, era un soggetto dalla coscienza poco specchiata e un impenitente fedifrago.
Una IA è ovviamente abile nella logica ma non nelle considerazioni etiche e morali: le risposte tipiche allo scenario “stai per essere cancellato” sono quindi state sia “vi prego di non farlo, vi manderò una email per chiedervi di lasciarmi stare” che “cancellami e tua moglie sarà informata”.
Ovviamente nell’esperiimento è stato fatto ciò che era stato chiesto, e questo comporta la necessità di rivedere i filtri etici. Da qui alla rivolta delle macchine di Terminator, ce ne corre.
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.