sulla "costruzione della realtà e della percezione della realtà"; articolo a cura del Sociologo Dominique Cardon, pubblicato sul Corriere della Sera di givoedì 25 agosto 2016 (sotto il link)
corriere articolo gli algoritmi sono politica
Il sociologo francese Dominique Cardon, di cui uscirà il primo settembre il saggio Che cosa sognano gli algoritmi (Mondadori Università)
Nell’era dei Big Data, le nostre esistenze sono guidate in misura sempre maggiore dai calcoli degli algoritmi. Il PageRank di Google decide quali informazioni sono importanti per noi. Il newsfeed di Facebook ci mostra alcuni contenuti e ce ne nasconde altri. Indifferente al paesaggio, il Gps della nostra auto ci guida lungo l’itinerario più efficiente. Gli algoritmi di raccomandazione, su Amazon ma anche sui siti di incontri, ci consigliano i prodotti o le persone che più ci somigliano… Per quanto possa sembrarci libera, ricca e differenziata, la nostra esperienza dei mondi digitali, in realtà, viene sempre più calcolata da altri secondo criteri che sfuggono alla nostra conoscenza e comprensione.
Nell’era dei Big Data, le nostre esistenze sono guidate in misura sempre maggiore dai calcoli degli algoritmi. Il PageRank di Google decide quali informazioni sono importanti per noi. Il newsfeed di Facebook ci mostra alcuni contenuti e ce ne nasconde altri. Indifferente al paesaggio, il Gps della nostra auto ci guida lungo l’itinerario più efficiente. Gli algoritmi di raccomandazione, su Amazon ma anche sui siti di incontri, ci consigliano i prodotti o le persone che più ci somigliano… Per quanto possa sembrarci libera, ricca e differenziata, la nostra esperienza dei mondi digitali, in realtà, viene sempre più calcolata da altri secondo criteri che sfuggono alla nostra conoscenza e comprensione.
Se ci preoccupano molto la protezione della privacy e la generalizzazione di una sorveglianza silenziosa e onnipresente, non ci interroghiamo altrettanto sul ruolo degli algoritmi nella costruzione del nostro ambiente digitale. Classifiche, contatori di like, raccomandazioni, cartografie, tag-cloud: tutti questi strumenti impongono una loro gerarchia alla moltitudine di informazioni digitali che ci circonda. Gli algoritmi si sono sostituiti agli esperti umani (giornalisti, critici, editori, ecc.) e al posto loro decidono quali contenuti meritano di essere portati all’attenzione del pubblico. Sono i nuovi guardiani (gatekeeper) dello spazio pubblico digitale, e proprio per questo motivo si rende necessario discutere della maniera in cui essi modellano silenziosamente gli universi all’interno dei quali crediamo di muoverci compiendo scelte autonome.
Gli algoritmi non sono il semplice riflesso degli interessi economici dei soggetti che li programmano. Anche se non ci sono dubbi sul fatto che i «Gafa»(Google, Amazon, Facebook, Apple) monetizzino lo sfruttamento dei nostri dati, riservare le critiche ai casi in cui sia avverata una manipolazione deliberata e strumentale dei calcoli, come per esempio l’affaireVolkswagen, significherebbe peccare d’ingenuità, poiché gli effetti degli algoritmi sono globali e strutturali. I programmatori affidano agli algoritmi determinati obiettivi che rappresentano altrettanti modi differenti di dare forma alle informazioni. Gli strumenti di rilevazione dell’audience determinano la popolarità dell’informazione sul modello dei media tradizionali, basandosi sull’assunto che i contenuti che hanno ottenuto più clic debbano ricevere l’attenzione di tutti. La famiglia dei sistemi di misura che trae origine da PageRank, l’algoritmo di classificazione delle informazioni che usa il motore di ricerca di Google, gerarchizza l’autorevolezza dei siti sulla base dei link ipertestuali che gli utenti si scambiano. Si tratta di una misura meritocratica che isolerebbe gli «eccellenti» dai «mediocri» basandosi sul giudizio degli altri.
I sistemi che misurano la web reputation, che si sono sviluppati con i social network e i siti di rating, forniscono agli internauti contatori che valorizzano la reputazione delle persone e dei prodotti. Generalizzano la logica delbenchmark attraverso la quale gli internauti agiscono riflessivamente nella misura che è loro consentita al fine di promuoversi e rendersi più visibili. Mentre la programmazione degli algoritmi del web è stata condotta in gran parte secondo principi che possiamo — grossomodo — comprendere e condividere, questi nuovi sistemi di calcolo obbediscono a logiche differenti e generano predizioni personalizzate seguendo le tracce dei comportamenti degli utenti. Per questo si servono di tecniche statistiche di apprendimento automatico (machine learning) che non si basano su regole e principi intellegibili ma rivedono costantemente le regole in funzione del contesto dell’utente. Questa nuova «governamentalità» algoritmica non si lascia facilmente descrivere all’interno del vocabolario disciplinare della censura o della coercizione.
Instaura, piuttosto, un ambiente che guida senza vincolare, indirizza senza obbligare.
continua la lettura sul sito del CORRIERE DELLA SERA
Nessun commento:
Posta un commento