Il Blog sta subendo alcuni interventi di manutenzione e aggiornamento, pertanto nei prossimi giorni si potrebbero riscontrare rallentamenti o malfunzionamenti.Ci scusiamo per il disagio.

Algoritmo bacchettone

I motori di ricerca semplificano la nostra vita, perché ci aiutano a trovare in poco tempo le informazioni che ci servono. Gli algoritmi che governano questi preziosi strumenti digitali a volte si trasformano in stupidi censori, perché i filtri automatici non vanno troppo per il sottile: o bianco o nero, senza sfumature di grigio. I risultati sono spesso paradossali, come racconta il giornalista e sociologo Evgenij Morozov al New York Times. L’articolo originale – You Can’t Say That on the Internet – è stato pubblicato il 16 novembre 2012.  Vi propongo la traduzione italiana, a cura di Internazionale.

 

Baluardo della libertà culturale, la Silicon valley si considera un an­tidoto al conformismo. Ma dietro la sua facciata a volte si nascondono regole conservatrici. Il motivo di questo puritanesimo spesso sono gli algoritmi di ricerca. All’inizio di settembre il New Yorker ha scoperto che la sua pagina su Facebook era stata bloccata perché violava le norme del social network relative a sesso e nudità”. Tutta colpa di una vignetta di Adamo ed Eva nel giardino dell’Eden. E dei capezzoli in bella vista di Eva.

La lotta all’oscenità può anche essere fonte di buoni affari. Come nel caso di Im­permium, un’azienda della Silicon valley che fornisce assistenza ai gestori di siti web nella moderazione dei commenti offensivi degli utenti. Anche la Apple si è allontanata dalla sua tradizione iconoclasta. Quando l’ultimo libro di Naomi Wolf, Vagina: a new biography, è stato messo in vendita sul negozio iBooks, la Apple ha sostituito “Vagi­na” con “V****a”. Dopo molte proteste, ha ripristinato il titolo originale. Ma quanti altri libri saranno stati manomessi?

La Silicon valley non usa una censura diretta, ma presenta termini ormai di uso comune come qualcosa di cui vergognarsi. Il proliferare della funzione autocomplete su YouTube, Google e Amazon è emblematica. In teoria serve solo a completare le parole da cercare senza doverle digitare per intero. È uno strumento intelligente, ma asseconda questa tendenza al perbenismo.

Fino a poco tempo fa la parola “bisessuale” non veniva completata automaticamente su Google: solo ad agosto il motore di ricerca ha inserito suggerimenti per alcune delle ricerche (ma non tutte) di quella parola. Due anni fa la rivista hacker 2600 ha pubblicato una lista nera di 40o parole. Non le ho verificate tutte su Google, ma nei casi in cui ci ho provato – “svastica” e “Lolita” – nessuna è stata completata automaticamente  Grazie alle aziende di tecnologia, la nostra vita pubblica si sta trasformando. E a questa metamorfosi digitale si accompagna l’affermazione di nuovi “algoritmi di guardia”, gli strumenti che filtrano le informazioni in rete.

 

 

Molti di questi strumenti restano invisibili finché qualcosa non va storto. All’inizio di settembre la diretta in streaming degli Hugo awards, gli Oscar della fantascienza, è stata interrotta da un avviso di violazione del copyright. Ustream, il sito che ha trasmesso la cerimonia, ha usato i servizi di un’altra azienda per verificare il copyright. Per qualche motivo, il video diffuso prima del discorso dello scrittore Neil Gaiman ha fatto scattare un avviso di violazione. Il materiale è stato tagliato, anche se gli organizzatori avevano i permessi.

I limiti degli “algoritmi di guardia” sono evidenti. Come spiegare il concetto di fair use, uso legittimo, a un algoritmo? Il contesto è fondamentale, e non ci sono regole certe. Per questo esistono i tribunali. Anche la nostra reputazione è condizionata dagli algoritmi. Nessuno lo sa meglio di Bettina Wulff, l’ex first lady tedesca, che ha citato in giudizio Google perché completava automaticamente le stringhe di ricerca del suo nome con parole come “escort” e “prostituta”. Ha accusato Google di diffondere false voci sul suo conto, mentre per il motore di ricerca le parole suggerite sono solo il “risultato dell’elaborazione algoritmica di fattori oggettivi”.

La difesa da parte di Google non regge. Nel 2010, l’esperto di marketing Brent Payne ha pagato i suoi assistenti perché cercassero la stringa “Brent Payne ha manipolato questa pagina”. Poco dopo sarebbe bastato digitare “Brent P” su Google per visualizzare quella frase tra le opzioni. Quando Payne l’ha reso noto, Google ha rimosso quel suggerimento. Ma quanti casi simili sono passati inosservati?

Anacronistico pudore, sudditanza al copyright, inutili danni alla reputazione: il controllo affidato agli algoritmi fa pagare un costo enorme alla nostra vita. Un aspetto che dobbiamo mettere in discussione. Le aziende non dovrebbero rendere pubblici i loro algoritmi, ma solo condividerli con un organo di vigilanza. Un rimedio drastico? Forse. Ma è proporzionale alla crescente influenza esercitata dalle aziende come Google. La Silicon valley non adotterà queste regole da un giorno all’altro. Ma i nuovi “algoritmi di guardia” devono capire che la loro influenza culturale comporta una grande responsabilità.

Fonti: The New York Times; Internazionale.

 


Twitter: @pinobruno

Pino Bruno

Scrivo per passione e per dovere, sono direttore di Tom's Hardware Italy, ho fatto il giornalista all'Ansa e alla Rai e scrivo di digital life per Mondadori Informatica e Sperling&Kupfer

Alcune delle mie Pubblicazioni
Stay in Touch

Sono presente anche sui seguenti social networks :

Calendario
dicembre: 2012
L M M G V S D
« Nov   Gen »
 12
3456789
10111213141516
17181920212223
24252627282930
31