Index   Back Top Print


logo

Gli algoritmi
non sono neutri

 

di Carlo Maria Polvani

Giovedì scorso, si è registrato nel mondo delle comunicazioni un evento epocale. La Federal Communications Commission (FCC) ha deciso di abrogare la normativa di «neutralità della rete» per lo scambio delle informazioni in internet. Per capire cosa implichi il provvedimento della FCC, si pensi a una autostrada a corsie multiple (la rete) sulla quale transitano veicoli di ogni tipo (i pacchetti d’informazione). Con la net neutrality, si impongono pedaggi e limiti di velocità uguali per tutti i veicoli; senza la net neutrality, i gestori dell’autostrade (i cosiddetti internet service providers) possono fare pagare pedaggi specifici e riservare corsie ad alta velocità (la cosiddetta paid prioritization) ai veicoli di loro scelta.

Da un punto di vista commerciale, la neutralità della rete sarebbe, secondo i suoi sostenitori, una tutela per i consumatori dai condizionamenti di lobby potentissime, mentre per i suoi detrattori, una regolamentazione nociva capace d’impedire significative innovazioni. Vista da un’angolatura più ampia però, la questione apre almeno altri due interrogativi. In primo luogo, in quale misura la rete debba essere equiparata a un bene essenziale — una utility indispensabile — il cui accesso andrebbe garantito. In secondo luogo, fino a che punto la rete debba considerarsi un luogo di libertà assoluta — un open internet esente da qualsiasi data discrimination — il cui fine sia il più ampio accesso possibile alla più grande varietà d’informazioni immaginabile.

Il principio di neutralità della rete riposa su altri due: quello del dumb pipe e quello dell’end-to-end; per permettere alle informazioni di essere trattate in forma imparziale, infatti, la rete deve agire a mo’ di “tubo ottuso” lasciando alle “estremità terminali” i compiti di selezionarle. Tuttavia, questa ottusità nel trasporto delle informazioni fa a pugni con i sofisticati sistemi d’intelligenza artificiale che ne affinano il trattamento per mezzo di sempre più perfezionati algoritmi matematici. Proprio venerdì scorso, la Commission nationale de l’informatique et des libertés (CNIL) ha lanciato l’allarme sulle analisi pervasive del big data (l’incalcolabile quantità di dati accessibile da social media, carte di credito o di fedeltà, motori di ricerca...) per prevedere comportamenti di individui o di gruppi.

Per capire la fondatezza dell’avvertimento della CNIL si consideri questo esempio. Un partito politico ottimizza la sua campagna elettorale con un algoritmo che, partendo dai dati delle ultime elezioni, crea la lista dei residenti nelle zone dove si registra una grande volatilità dell’intenzioni di voto; lo stesso algoritmo esamina poi le voci di spese riportate nelle carte di credito dei membri della stessa lista, per escluderne quelli i cui comportamenti rendono improbabile un cambiamento di indirizzo politico (e.g. le donazioni a certe associazioni, l’abbonamento ad alcuni quotidiani...); sui rimanenti controlla i dati delle carte di fedeltà per determinare quali siano i loro interessi (e.g. la famiglia se comprano pannolini, la cultura se acquistano libri...). Infine, invia a questi elettori una email con le promesse del partito sui temi a loro cari (e.g. costruzione di asili nido, sovvenzioni per il cinema d’autore...).

La verità è che siamo già tutti sottoposti a continui profiling che si basano sulla messa in relazione di categorie socio-economico-demografiche le quali sono decise oggi, da programmatori specializzati e domani, da intelligenze artificiali talmente performanti che — grazie al processo di machine learning — avranno la capacità di perfezionarle autonomamente. Per questo il CNIL ha segnalato l’urgenza di un sistema di vigilanza sulle intelligenze artificiali che renda la loro operatività trasparente e la sottoponga a dei principi etici. Che nessuno s’illuda; solo in un mondo senza etica, neutralità, imparzialità e oggettività sono sinonimi.

(© L'Osservatore Romano, 20 dicembre 2017)