Chatcontrol: intenzione, problemi, prospettive

di Bufale.net Team |

Chatcontrol: intenzione, problemi, prospettive Bufale.net

La storia di Chatcontrol è la storia per cui niente al mondo è semplice. Non esistono soluzioni semplici, non esistono miracoli, non esistono risposte nette. Le migliori intenzioni diventano crusca e non farina a causa di una imperfetta comunicazione ed ancor meno perfetta applicazione.

Sostanzialmente il regolamento Chatcontrol è una deroga alla Direttiva ePrivacy. In parole assai povere, secondo essa va a cadere il divieto dei gestori di servizi social e messaggeria di garantire uno scudo contro “attività di sorveglianza, intercettazione o conservazione delle comunicazioni elettroniche, salvo il caso in cui l’utente non abbia prestato il proprio consenso o il provider sia stato espressamente autorizzato per legge”.

E tale scudo decadrebbe per una situazione ben specifica: il contrasto alla pedopornografia online.

Sostanzialmente, secondo il regolamento Chatcontrol, approvato a larga maggioranza nel mese di luglio, si consente ai provider un controllo mediante algoritmo che setti un “flag”, un “avviso” in caso nelle chat si scambino contenuti pedopornografici.

Obiettivo lodevole, ma decisamente complesso da ottenere.

Chatcontrol, problemi e prospettive

Tom’s Hardware ha avuto modo di analizzare alcuni possibili scenari.

Partiamo però da un fatto: la norma consente ai provider di derogare ePrivacy, non obbliga a farlo.

Anche se, ovviamente, saranno le piattaforme a scegliere se applicare o meno il regolamento, quindi introdurre i sistemi di controllo.

Anche se va detto le piattaforme potrebbero essere ben disposte nel farlo, e l’attuale regolamento è “provvisorio per tre anni”, ma non specifica cosa potrebbe accadere dopo.

Le ipotesi diciamo, sono benevole: un algoritmo fa scattare un “avviso” quando c’è un potenziale scambio di contenuti pedopornografici, i Social che attualmente non possono agire in modo “preventivo” avvisano preventivamente le autorità.

Ma gli algoritmi non sono perfetti: sono tanto perfetti quanto la mano che li ha programmati. E se un algoritmo, come ricorda Tom’s Hardware e come sostanzia una petizione contraria, decidesse di “segnalare” le foto delle vacanze di una famigliola con figli piccoli in quanto un algoritmo potrebbe non capire la differenza tra un pedofilo che invia foto di un minore ad un pedofilo per adescamento e motivi sessuali da un genitore che manda foto di suoi figlio a zii e cugini?

Il regolamento va detto non è applicato, e servirà un regolamento di dettaglio.

Ma se ePrivacy può essere sospesa, non così il GDPR. E i profili evidenziati rendono il tutto un lavoro in salita, e che va valutato molte volte per capire se l’obiettivo perseguito può essere, e come, raggiunto.

Se il nostro servizio ti piace sostienici su PATREON o con una donazione PAYPAL.

Latest News