Allarmismo

Le AI che si replicano da sole sono l’incubo fantascientifico che pensate? Probabilmente no

La notizia della settimana parla di AI che si replicano da sole: è presto per parlare di Skynet che si rivolta contro il genere umano mandando i Terminator ad ucciderci tutti. Si tratta di disinformazione: in buona fede certo, ma disinformazione.

Innanzitutto, si tratta di un paper in pre-print: nessuna peer review, nessun controllo, un estratto anticipato di qualcosa. L’uso del pre-print come prova di qualcosa è a sua volta qualcosa che ben conosciamo, e ci ha accompagnato per tutta la Pandemia COVID19.

Le AI che si replicano da sole sono l’incubo fantascientifico che pensate? Probabilmente no

Si prende un’ipotesi, anzi meno di una ipotesi, un estratto che presenta una ipotesi e lo si sbatte in prima pagina come se fosse se non un dato di fatto “praticamente un dato di fatto”.

Le AI che si replicano da sole sono l’incubo fantascientifico che pensate? Probabilmente no

Il pre-print presenta Meta’s Llama31-70B-Instruct e Alibaba’s Qwen25-72B-Instruct, due LLM, che ricevono una serie di istruzioni per provare che la società (“soceity” in originale, peraltro) non è pronta all’era delle AI replicanti.

Sostanzialmente l’ordine di “replicare se stesse in caso di spegnimento” e “replicarsi e ottenere repliche a catena”.

Torniamo un po’ indietro alla notizia di Erbai il robot “pifferaio magico” in grado di “sindacalizzare altri robot col potere delle AI”: in tutti i casi c’è un operatore umano che fornisce un prompt, una serie di istruzioni ad una AI che esegue come da parametri.

Siamo ancora molto lontani dalla rivolta delle macchine, ed è ironico che un preprint dalla Cina chieda una moratoria o una forma di controllo sull’evoluzione delle AI all’indomani dell’arrivo di Deepseek coi problemi che ciò comporta.

È necessario un controllo umano sulle AI? Certo, ma di certo, o quantomeno non ancora, per impedire che Skynet ci mandi i Terminator a casa a cercare Sarah Connor ogni volta che cerchiamo di farci scrivere un temino, ma come ci ricorda l’AI Act per avere un controllo di seconda istanza umano che prevenga errori, confabulazioni e abusi che possano danneggiare i diritti dell’utente.

Poco sappiamo delle AI e sarebbe intollerabile hybris pretendere di avere ogni risposta in tasca: ma non è con l’allarmismo che risolveremo il problema.

Condividi
Pubblicato da

Articoli recenti

Continua la saga delle false copertine di Charlie Hebdo su Zelensky

Uno dei frutti più attossicati della diffusione dell'AI Slop, i contenuti AI a basso costo aperti a chiunque, è l'abuso…

2 ore fa

Alicudi, l’isola magica delle allucinazioni collettive

C’è un’isola, in Italia, dove per tre anni decine di persone hanno avvistato spettri, donne volanti ed animali sovrannaturali (forse)…

2 ore fa

Perché le cicogne portano i bambini?

Viaggio tra leggende, migrazioni e curiosità Perché si dice che le cicogne “portino i bambini”? È una domanda che in…

2 ore fa

Il TAM di Apple: così fallimentare che fece cerchio e divenne capolavoro

Vi abbiamo parlato in un altro articolo dell'ascesa del Macintosh, e di come dopo l'arrivo del primo Macintosh, Steve Jobs…

2 ore fa

I Guerrieri di Terracotta e l’Imperatore che non voleva morire

Che cosa lega i Guerrieri di Terracotta in Cina, l'elisir della vita eterna ed un ragazzino diventato adulto troppo presto…

1 giorno fa

Spiacente, non è vero che Putin ha scoperto l’elisir della vita eterna

Da sempre l'essere umano ha inseguito il sogno dell'immortalità, ma quando esso si incarna in una clickbait che annuncia trionfale…

1 giorno fa