Bufala

Le foto dell’agente ICE che ha sparato a Minneapolis smascherato sono falsi con AI (e non vanno diffuse)

Le foto dell’agente ICE che ha sparato a Minneapolis smascherato sono falsi con AI (e non vanno diffuse). E il motivo è evidente: non corrispondono ad alcun volto reale, e rischiano di scatenare feroci cacce all’uomo verso persone che hanno la sola colpa di “somigliare ad un modello matematico”.

Le foto dell’agente ICE che ha sparato a Minneapolis smascherato sono falsi con AI (e non vanno diffuse)

Dopo la sparatoria che è costata la vita dell’Osservatrice Legale Renee Nicole Good (l’osservatrice legale è una figura terza che presenzia ad operaioni di polizia o militari con effetto di “moral suasion” e per creare un clima di “De-escalation”) infatti un esercito di utenti X ha cercato di ottenere foto dell’uomo che l’ha colpita tre volte attraverso il parabrezza della sua auto chiedendo a Grok AI.

Ma Grok AI non è in grado di “smascherare volti”, solo di inventarsene.

Le foto dell’agente ICE che ha sparato a Minneapolis smascherato sono falsi con AI (e non vanno diffuse)

Grok AI è già finito sotto il mirino degli addetti ai lavori per problemi legati all’uso per la creazione di deepfake e deepnude: immagini del tutto false o “immagini di persone” (perlopiù donne, in questo caso un uomo) spogliati.

Problema: anche il deepnude ha gli stessi problemi identici che abbiamo visto con la generazione testuale, e confermato da BBC Verify: le AI sono incapaci di fare vero fact checking.

Gallerie di falsi generati da Grok, fonte BBC Verify

Si basano sul principio dello “statisticamente probabile”: come in un moderno “Gioco di Mister Potato”, quello in cui devi attaccare diversi occhi, orecchie e bocche ad una patata di plastica per ottenere faccette buffe, quando a Grok viene chiesto di “smascherare un uomo mascherato”, Grok cerca nel suo database foto di persone con fisici paragonabili, “smonta” i loro volti e li assembla in iterazioni di volti statisticamente probabili.

Questo comporta una serie di problemi:

  1. I volti ottenuti non esistono: sono volti statisticamente probabili, assemblaggi di diverse facce ritoccati per dare loro coerenza;
  2. Nella sciagurata ipotesi in cui uno dei volti finti somigliasse anche lontanamente ad un volto reale, la persona così sfortunata sarebbe resa oggetto di violenza da parte di boccaloni pronti a difendere le fake news

E questo accadrebbe anche per colpa vostra che avete condiviso.

Condividi
Pubblicato da

Articoli recenti

Quella volta che Charles Dickens decise che Hans Christian Andersen era un maledetto rompico**ioni

Una gag televisiva del 2001 della Gialappa's Band presentava un personaggio interpretato da Fabio De Luigi, l'improbabile supereroe Medioman (anagrafe: Medioman…

41 minuti fa

Guida OSINT #4: Come riconoscere i brani scritti con l’intelligenza artificiale

Nel 2023, una canzone attribuita a Drake e The Weeknd ha fatto il giro del mondo. Voce perfetta, beat impeccabile,…

5 ore fa

La foto della moglie di Maduro deepfake e il complotto dell'”occhio nero”

Ci segnalano i nostri contatti una "foto della moglie di Maduro" sotto processo con un vistoso occhio nero. La didascalia…

5 ore fa

Spunta blu MAGA pubblica prima fake foto della sparatoria a Minneapolis

Il caso del giorno è la foto della sparatoria a Minneapolis, evento dove un membro di ICE, la "milizia anti-immigrazione"…

1 giorno fa

No, questi manifestanti del Venezuela che inneggiano a Trump sono un prodotto della AI

Ci segnalano i nostri contatti un video di manifestanti del Venezuela che inneggiano a Trump, con una didascalia che dichiara…

1 giorno fa

Una AI ha inventato una parte del corpo inesistente per davvero?

Siamo nel maggio del 2024, e Google lancia una AI specializzata in ambito medico, in grado di assistere operatori umani…

1 giorno fa