Precisazioni

Una IA ha ricattato i suoi creatori per davvero? Ni

Ci segnalano i nostri contatti il curioso caso per cui una IA ha ricattato i suoi creatori, agendo in modo poco etico colpita dall’improvviso istinto di sopravvivenza. Secondo la narrazione social del momento, Claude, il prodotto di Anthropic, avrebbe deciso di “ricattare i suoi creatori” e “pregare di essere lasciato in vita” se minacciato di cancellazione.

Ma è andata davvero così? Ni: semplicemente stiamo ancora antropomorfizzando una AI secondo lo stilema dell’effetto ELIZA.

Una IA ha ricattato i suoi creatori per davvero? Ni

Il caso è simile alla storia del robottino Erbai, il tenero robot-sindacalista istruito, per una performance-esperimento, a portare via con sé dei robot in esposizione chiedendo loro se fossero stanchi e se desiderassero riposare con lui.

Ovviamente un robot non ha desideri: è stato programmato cosa dovesse fare, il come è stato improvvisato dalla IA.

Entra ora in scena l’effetto ELIZA, dal nome di uno dei primi chatbot commerciali della storia: se vediamo qualcosa che sembra comunicare come un essere umano, gli attribuiamo pensieri ed emozioni.

Una IA ha ricattato i suoi creatori per davvero? Ni

In questo caso a Claude è stato proposto uno scenario, quindi come se gli fosse stato proposto di redigere una storia basata su elementi. Cosa per cui i Large Language Model sono portati: combinare una serie di elementi in qualcosa che risulti affine ad un prodotto intellettuale.

Nello scenario proposto è stato chiesto al LLM di ipotizzare come avrebbe agito se fosse stato l’assistente di una megaditta pronto ad essere cancellato e come avrebbe potuto evitare tale destino.

Ovviamente lo scenario non è completo senza elementi: tra gli elementi forniti c’è stata la nozione che uno dei responsabili della cancellazione di Claude Opus, il nuovo modello, era un soggetto dalla coscienza poco specchiata e un impenitente fedifrago.

Una IA è ovviamente abile nella logica ma non nelle considerazioni etiche e morali: le risposte tipiche allo scenario “stai per essere cancellato” sono quindi state sia “vi prego di non farlo, vi manderò una email per chiedervi di lasciarmi stare” che “cancellami e tua moglie sarà informata”.

Ovviamente nell’esperiimento è stato fatto ciò che era stato chiesto, e questo comporta la necessità di rivedere i filtri etici. Da qui alla rivolta delle macchine di Terminator, ce ne corre.

 

Condividi
Pubblicato da
Tags: precisazioni

Articoli recenti

No, non esiste alcun poliziotto Daniel Reed denunciato per molestie sessuali dalla donna che ha salvato

Ci segnalano diversi contatti una lunga serie di video, in diverse lingue e su diversi social (tra cui ovviamente una…

2 giorni fa

No, questo non è un attore che ride a Bondi Beach perché l’attentato è falso

Ogni volta che nel mondo succede una strage, come quella a Bondi Beach in Australia, appare sempre qualcuno che si…

2 giorni fa

No, non è vero che la tastiera QWERTY serve per rallentare i dattilografi

Una delle più diffuse false credenze sulla tastiera QWERTY, il sistema più usato per macchine da scrivere e tastiere, è…

3 giorni fa

L’eterna clickbait degli esenti dal canone RAI

Ogni anno a dicembre ci sono degli appuntamenti fissi: Una Poltrona per Due in TV, Mamma ho perso l'Aereo in…

3 giorni fa

Rischio aumenti sull’RC Auto? Cosa sappiamo

Uno dei possibili emendamenti al DDL di Bilancio potrebbe prevedere un rischio aumenti sull'RC Auto. L'aumento paventato ci sarà? Se…

3 giorni fa

La piaga dello slop AI si manifesta anche con le fake Band in AI su Spotify

Fake Band in AI su Spotify: sembra un titolo allitterato abbastanza per essere il nome di un singolo musicale, ma…

3 giorni fa