Per questo motivo gli algoritmi non sempre raggiungono il loro scopo, ma vanno continuamente migliorati e modificati per mantenere elevata la qualità dei loro risultati. Ad esempio, Google è costretta a intervenire ogni volta che malfattori di vario genere cercano di sfruttare l'algoritmo per i loro fini (come nel caso di un sito di neonazisti che cercava di sfruttarlo per apparire in cima alla lista dei risultati quando qualcuno ricerca notizie sull'Olocausto). Da qualche anno l'algoritmo di Google viene aggiornato non più da umani, ma da strumenti di Intelligenza artificiale basati sul machine learning. Ma, a parte Google e il suo famoso algoritmo, l'espansione degli algoritmi è stata tumultosa e si può dire che oggi non vi sia settore economico, industriale o sociale che non ne faccia uso.
_
_
_
Gli algoritmi sbattono la porta in faccia a milioni di persone, spesso per le ragioni più insulse, e non offrono possibilità di appello. (Cathy O’Neil)
_
_
Gli algoritmi riproducono i pregiudizi di chi li crea.
La ricercatrice in matematica Cathy O'Neill, nel suo libro "Weapons of Math destruction" (vedi bibliografia Chalabi, Cole), mette in luce alcuni lati oscuri dei modelli matematici che governano la società, evidenziando in che modo l'intreccio di Big Data e algoritmi determina certi risultati:
- Accesso alle Università USA: l'intero sistema di accesso ai College USA è determinato da algoritmi: da una parte il posizionamento dei College (College Ranking) viene influenzato dagli stessi College attraverso la pubblicazione di report o notizie sui media mentre, dall'altra, le famiglie americane di elìte cercano di contrastare le difficoltà dei test di ammissione (costruiti da algoritmi), quali GPA, SAT e ACT, suggerendo ai loro figli di differenziarsi facendo qualche attività extrascolastica
- Pubblicità mirata: gli effetti del "targeted advertising" consente, specialmente agli inserzionisti più aggressivi, di colpire i clienti più vulnerabili alle truffe
- Polizia predittiva: negli USA l'eguaglianza di fronte alla legge viene negata e sostituita da un algoritmo che applica articoli di legge diversi a comunità differenti. La polizia si concentra in modo sproporzionato sui crimini nei quartieri disagiati, ignorando quelli dei ricchi, con sentenze più dure per gli afroamericani.
- Selezione del personale: vede l'impiego di "algoritmi discriminatori" per la selezione del personale da assumere che rigettano automaticamente le domande di lavoro avanzate da determinate classi sociali
- Valutazione degli insegnanti: gli algoritmi usati per la valutazione della qualità degli insegnanti, a volte discriminano insegnanti eccellenti
- Concessione di credito bancario: gli algoritmi che assegnano un punteggio ai clienti, determinando il loro accesso a mutui e assicurazioni, spesso escludono quelli che vengono ritenuti i "perdenti della società"
[con gli algoritmi] finiamo per essere giudicati non sulla base di chi siamo, ma a chi somigliamo, o da dove veniamo, o in cosa crediamo. Nel tritacarne algoritmico, l’individuo diventa sacrificabile alle regolarità di gruppo; e se fa eccezione, peggio per lui. Questa, insegnano la sociologia e la storia, è la matrice di ogni razzismo, di ogni ingiustizia sociale.
- Gli algoritmi offrono indubbi vantaggi nell'ottimizzazione di molti processi industriali e commerciali. L'immagine mostra uno schema di ordine generale secondo il quale molte organizzazioni ottimizzano, con appropriati algoritmi, il loro business (vedi bibliografia Granville). Il processo di produzione e distribuzione (supply chain) è organizzato su più fasi che impiegano vari tipi di algoritmi. Le fasi più importanti sono le seguenti:
- Ottimizzazione del processo produttivo e distributivo: Selezione dei siti dei magazzini per ridurre i costi di distribuzione; ottimizzazione degli acquisti di carburante per i furgoni di distribuzione; minimizzazione del tempo perduto nel traffico (richiede predizioni di traffico);
- Ottimizzazione prezzi e profitti
- Rilevazione frodi: per transazioni su carta di credito
- Categorizzazione prodotti: creazione di una tassonomia per categorizzare i prodotti al fine di costruire e mantenere un buon catalogo (può essere fatto con l'uso di algoritmi di tagging e indexing)
- Ottimizzazione pubblicità: automatizzazione Google Adwords per milioni di keywords, SEO e SEM
- Previsione di inventario
- Previsione vendite
In molti modi questi algoritmi sono un riflesso di noi. Stanno mappando i comportamenti e le tendenze umane naturali - ciò che clicchiamo, per cosa ci indignamo, ciò che ci piacerà. Fanno parte di noi. Ma queste mappe includono alcune delle nostre peggiori preoccupazioni, paure irrazionali e cattive abitudini. Dobbiamo progettare questi algoritmi per tenere conto di loro. Abbiamo inavvertitamente creato un sistema multimediale che monetizza molti dei nostri difetti.
- Misura della popolarità: si tratta della "audience" dei siti web, che permette di contare i visitatori unici (usando l'indirizzo IP del computer), soprattutto per determinare il valore dei banner pubblicitari. Tale rilevazione è esposta al rischio di manipolazioni, ad esempio da parte dei clickrobot che, secondo il Bad Bot Report 2019 , nel 2018 hanno costituito il 37,9% dell'intero traffico. Come scrive Cardon (p.17):
Se i sistemi di misura si perfezionano, essi devono difendersi da webmaster poco scrupolosi, da editori che ampliano artificialmente il perimetro del loro sito e, infine, dai click-robot - Misura della autorevolezza: si propone di scoprire la qualità dell'informazione, essa misura il credito che un sito web riceve da altri siti che lo linkano ed è particolarmente importante in campo scientifico (ma non solo). Tale misura viene invalidata, in alcuni casi, dallo sfruttamento che malintenzionati fanno dell'algoritmo di google, falsando a loro vantaggio errori presenti nell'algoritmo di Google. Come scrive Cardon (p.18):
Inedita nella storia dei media, questa soluzione è molto audace. Prima di Google, i primi motori di ricerca (Lycos, Altavista) erano lessicali: davano un miglior posto in classifica ai siti le cui pagine contenevano il maggior numero di volte la parola chiave della richiesta dell'utente. Sergey Brin e Larry Page, i fondatori di Google, hanno opposto a questa pratica inefficace tutt'altra strategia: piuttosto che chiedere all'algoritmo di capire ciò che dice la pagina, hanno proposto di misurare la "forza sociale" che la pagina esercita sulla struttura del web. Internet è una rete caratterizzata da una struttura che fa del web un tessuto di testi rinviantisi l'uno all'altro tramite link ipertestuali. L'algoritmo del motore di ricerca dà una gerarchia alle informazioni sulla base dell'idea che un sito che riceve un link da un altro sito, riceve contestualmente una prova di considerazione, la quale gli conferisce autorevolezza. - Misura della reputazione: si propone di misurare il seguito sociale di un singolo (o di un'impresa), cioè la reputazione di soggetti pubblici o privati, presenti sul web, attraverso il numero di informazioni pubblicate che altri utenti hanno commentato o condiviso sui social network. Tale misura viene invalidata dal fenomeno dell'Astroturfing, cioè dalla propaganda a base di recensioni costruite a tavolino. Scrive Cardon (p.23).
Con l'inserzione, nella maggior parte dei siti di e-commerce, del dispositivo "recensioni e commenti", un altro insieme di sistemi metrici della reputazione è andato ad affiancarsi, su Internet, ai metodi di misurazione del social web. Hotel, ristoranti, prodotti culturali, e a breve tutto quanto sia possibile valutare e a cui è possibile dare un voto, ricorrono ormai all'aiuto degli interessati che inserendo le proprie valutazioni vanno ad arricchire un'opinione collettiva. - Misura della previsione comportamentale: si propone di apprendere automaticamente (con strumenti di machine learning) quali decisioni di acquisto (o di voto) l'utente potrebbe maturare. Essa misura l'efficacia dei modelli probabilistici dei sistemi di recommender che indirizzano i comportamenti degli utenti a seguito della loro profilazione digitale. Le tracce che ogni utente lascia su internet vengono amplificate e rilanciate dai cosiddetti 3rd-party cookies, cioè cookies che seguono gli utenti nella loro navigazione. Esiste comunque una proposta 2017 della Commissione europea per riformare la direttiva e-privacy (ePD) ed eliminare questo problema. Scrive Cardon (p.26):
Questa famiglia ambisce a personalizzare i calcoli a partire dalle tracce di attività degli internauti onde incitarli ad agire in una direzione piuttosto che in un'altra. Come nei sistemi di raccomandazione di Amazon o Netflix [...] L'algoritmo "impara" confrontando un profilo con quello di altri internauti che hanno effettuato la sua stessa azione. In modo probabilistico, esso ipotizza che una persona potrebbe fare tale o talaltra cosa che non ancora fatto, visto che, invece, delle persone che le somigliano l'hanno già fatta. Il futuro dell'internauta viene predetto grazie al passato di coloro che gli somigliano.
Iscriviti alla Newsletter di pensierocritico.eu per ricevere in anteprima nuovi contenuti e aggiornamenti:
Mona Chalabi (2016), Weapons of Math Destruction: Cathy O'Neil adds up the damage of algorithms - The Guardian
Jonathan Cole (2016), Why Elite-College Admissions Need an Overhaul - The Atlantic
David Beer (2016), The social power of algorithms (PDF)
Ferruccio Damiani, Introduzione all'Algoritmica (PDF)
Algoritmi - Google
Erik Ortiz (2016), Google Changes Algorithm, Scrubs Neo-Nazi Site Disputing Holocaust in Top Search
Danny Sullivan (2016), FAQ: All about the Google RankBrain algorithm
Laetitia Van Cauwenberge (2015), Top 10 Machine Learning Algorithms
Vincent Granville (2015), 21 data science systems used by Amazon to operate its business
Fabio Chiusi (2016), No, gli algoritmi non sono neutrali. Ed è un problema che non possiamo sottovalutare - L'Espresso
Fabio Chiusi (2016), "L'algoritmo del futuro sarà saggio" - L'Espresso
Sabina Minardi (2016), Algoritmo, un dio dietro tutte le cose - L'Espresso
- Iztok Fister Jr et Al. (2013), A Brief Review of Nature-Inspired Algorithms for Optimization (PDF)
- Michael Luca, Jon Kleinberg, Sendhil Mullainathan (2016), Algorithms Need Managers, Too - Harvard Business Review
- Evelyn Lamb (2016), Review: Weapons of Math Destruction - Scientific American
- Lee Rainie, Janna Anderson (2017), Code-Dependent: Pros and Cons of the Algorithm Age - PewResearchCenter
- Anthony Wing Kosner (2014), The Formula: Do We Place Too Much Faith In Our Algorithms? - Forbes
- Tobias Rose- Stockwell (2017), This Is How Your Fear and Outrage Are Being Sold for Profit - Medium
- Bruno Saetta (2018), Algoritmi, intelligenza artificiale, profilazione dei dati: cosa rischiamo davvero come cittadini? - Valigia Blu
- Barbara Ardu' (2019), Lavoro, attenzione alle tracce lasciate sui social: così i recruiter scoprono chi siete - La Republica
Pagina aggiornata il 27 luglio 2023