L’algoritmo è il tuo pastore

 L algoritmo è il tuo pastore

Di Robert McKeown per il Mises Institute.
Ripubblicato da ZeroHedge.

Se sei un frequente utilizzatore di social media ti sarà forse sembrato di essere osservato o persino controllato. Improvvisamente appare un annuncio di un prodotto che potresti aver recensito su Amazon o su eBay; una serie di video compaiono alla destra della tua pagina YouTube che hanno a che fare con qualcosa che hai visto giorni prima; Facebook ti mostra solo le notifiche di post con i quali potresti aver interagito e ignora tutti gli altri amici. Gli esempi possono continuare ancora a lungo.

La risposta risiede negli algoritmi. Sono equazioni matematiche logiche progettate per produrre uno specifico risultato. Un esempio semplice può essere se A>B e B>C allora A>C. In parole povere, se John preferisce le banane alle arance e le arance alle mele, allora John preferisce le banane alle mele. Ma è sempre così?

Il positivismo in economia

Nello studio dell’economia, la scuola di Chicago, Harvard e il M.I.T. sono da molto tempo sostenitori di quello che è conosciuto come positivismo economico. Questa teoria economica basata su modelli matematici si affida a precise normative e a precisi assunti positivi. Se un’anomalia non rientra negli assunti normativi, viene semplicemente ignorata.

L’economista arriva a conclusioni definitive continuando a ignorare certi “valori anomali”. Queste conclusioni sono implementate come politiche pubbliche dagli stati o dalle istituzioni bancarie come la Federal Reserve. Come gli algoritmi usati dai social media, il positivismo economico si basa quasi esclusivamente sulla matematica e sul concetto che “tutte le cose sono uguali”, o meglio “tutte le cose sono quantificabili”.

Proprio come nel precedente esempio, come può un economista quantificare i gusti di John in quanto alla frutta? In termini economici, come può un economista quantificare un utilità? Cioè come può un economista assegnare un valore numerico alle preferenze e alle soddisfazioni di qualcuno? Eppure questo è quello che il mainstream ha fatto per oltre 100 anni.

Rendendo una certezza il fatto che “la taglia unica vada bene per tutti”, l’economia mainstream ha trattato i consumatori come un gregge. Questa mentalità da “nutriti al trogolo” ignora completamente l’individuo nella vastità del mercato. Lo fanno perché la miriade di preferenze e scelte che abbiamo non è quantificabile. Sarebbe un compito matematicamente impossibile ridurre tutte le nostre scelte e preferenze a una semplice equazione. Ma eliminando l’individualità, l’economia mainstream può determinare positivamente il successo o il fallimento delle decisioni circa le politiche pubbliche. E così ci ritroviamo con le bolle immobiliari, le bolle nel mercato obbligazionario, le bolle sui prestiti universitari, le bolle nel mercato azionario e molte altre.

Torniamo agli algoritmi

Quindi cosa ha a che fare il positivismo economico con Facebook? Similmente, questi algoritmi riducono le preferenze degli utenti a qualcosa di quantificabile, determinato e prevedibile. Volevi davvero leggere quel post? E quelle altre centinaia che ti sono state nascoste?

Matt Stoller dell’Open Market Institute sostiene che questi algoritmi sono dannosi e possono portare le persone a prendere cattive decisioni. Conducono un lettore o un utente di YouTube a vedere contenuti che altrimenti non avrebbero mai cercato. YouTube è famosa per inserire video consigliati in una colonna sulla destra della pagina. Alcuni molto più stravaganti di quelli che stai guardando. Improvvisamente l’utente si trova nella profondissima tana di un bianconiglio che non aveva nessuna intenzione di seguire.

Inoltre, gli algoritmi dei social media cercano di assegnare a ogni utente una tipologia predefinita: cospirazionisti, fanatici sportivi, adoratori della cultura pop e altro ancora. Questi utenti vedranno contenuti che li guideranno lungo una strada predeterminata. Secondo Matt Stoller, questa esposizione limitata ai contenuti non può che essere dannosa per l’intera società.

Algoritmi e Intelligenza Artificiale

Anche l’intelligenza artificiale è una scienza basata su algoritmi. Come detto in precedenza, questi algoritmi si basano su comportamenti umani e risposte alle differenti condizioni presi come assiomi. Condizioni tuttavia sempre prevedibili e determinate.

I grandi motori di ricerca commerciali sono fortemente dipendenti dall’intelligenza artificiale per i loro risultati di ricerca. I dati raccolti su ciascuno di noi da Google, Microsoft e Yahoo vengono usati per determinare ciò che ci piace e non ci piace, quali sono i nostri interessi e vengono ordinati di conseguenza. Ma sono i contenuti che ti vengono nascosti che determinano che tipo di utente diventerai. La tua attività su internet è predeterminata e neanche lo sai. Siamo stati inseriti in specifici gruppi e sotto gruppi di persone da un’intelligenza artificiale algoritmica su internet.

I servizi automatici dipendono moltissimo da questi algoritmi. Il tuo caffè di Starbucks preferito sarà erogato da un apparecchio controllato da una IA. Come ti piace il tuo Big Mac, la pizza e una miriade di altri servizi per il consumatore stanno già migrando verso processi controllati dalla IA. Una vera e propria rivoluzione tecnocratica ci sta iniziando sotto il naso e nessuno se ne accorge. Molti di questi cambiamenti sono positivi e ci porteranno a esperienze di consumo convenienti e piacevoli. Ma è solo l’inizio.

Conclusioni

Allora cosa c’è che non va con gli algoritmi? Di per sé possono essere strumenti utili. Ma quando vengono usati per organizzare la società in specifici gruppi e sottogruppi di persone e provano a determinarne le reazioni, allora abbiamo più di un problema.

Quando ci affidiamo agli algoritmi per fare le leggi, formulare diagnosi e raccomandazioni mediche, determinare quanta energia ci è consentito consumare, cosa dobbiamo mangiamo, le nostre scelte di carriera, se ci dobbiamo sposiamo o avere bambini, o una qualunque altra decisione personale, allora, in quel momento, gli algoritmi sono diventati i nostri padroni. Proprio di queste cose discutono oggi governi di tecnocrati che ogni giorno gestiscono la nostra vita.

Basarsi sugli algoritmi per prendere le giuste più corrette per ogni individuo è una strada pericolosa. Il risultato non sarà diverso da quello che i sistemi econometrici hanno fatto all’economia. Riducendo l’umanità a una serie di equazioni, l’intelligenza artificiale algoritmica sta creando una versione distorta della società altrettanto negativa dell’economia artificiale nella quale viviamo.Artificiale“, credo sarà la nuova parola d’ordine del prossimo futuro.

traduzione per Byoblu.com, a cura di Giada Serina

5 commenti

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

  • Intanto grazie per portare alla luce questo tema, che in effetti con il diffondersi delle intelligenze artificiali, super computer, robot ecc. diventerà assai importante nel futuro e già ha una sua valenza nel presente.
    Forse bisognerebbe considerare il fatto che quando queste ricerche, che impattano così tanto sulla vita di ognuno, sono lasciate interamente nelle mani del settore privato il risultato è che il solo fine è aumentare i profitti degli azionisti, finanziatori ecc.
    Dunque una soluzione potrebbe essere quella di iniziare a dotarsi, come Stato, di centri di ricerca di stato e non privati, in grado non solo di comprendere ciò che accade e spiegarlo alle persone ed a chi governa, ma anche di fare loro stessi concorrenza, con però finalità diverse dal solo profitto.
    Particolarmente in campo medico sarebbe opportuno, se vorremo anche in futuro avere una sanità pubblica efficiente, al passo coi tempi e non strangolata dai costi delle nuovissime tecnologie, avere dei centri di eccellenza statali.
    E come sempre cercare di rendere le persone (ed i governanti nazionali) ben consapevoli di cosa accade.

  • Andrea Giovanni Boretti
    quale stato dovrebbe gestire e controllare?
    Di stato e’ rimasto l’unvolucro vuoto….l’interno trovi solo “privato” !

  • Articolo interessante. Come programmatore di computer, scrittore e implementatore di algoritmi dico che se l’algoritmo è a codice aperto (open source), è possibile capire come “ragiona” e trarne le debite conclusioni per eventualmente migliorarlo e correggerlo a beneficio di tutti. Se invece l’algoritmo è chiuso non è facile capire come “ragiona”, in questo caso il padrone è chi ha scritto l’algoritmo e il servo è chi legittima la Proprietà Privata, in questo caso la Proprietà intellettuale.

  • Mi sa che chi ha scritto l’articolo non ha capito cosa è un algoritmo.
    Una ricetta di cucina è un algoritmo.
    Scrivere usando la grammatica italiana, è un algoritmo.
    Decidere di fare una passeggiata perché fuori è bel tempo, è un algoritmo.
    Eccetera.

    Poi, vabbé, il senso dell’articolo è chiaro: chi controlla quali informazioni ci arrivano, ci può mettere più o meno salame sugli occhi.

  • com’era quella storia dello scarabeo che secondo le leggi della Fisica, non può volare, ma lui non lo a, e vola in giro tranquillo? ecco, noi dobbiamo essere quello scarabeo. forse ci basta rinunciare al pc e smartphone, o anche dovremo tirare via la presa elettrica, ma perdio si può fare, non scordiamoci forse l’unica frase giusta del vecchio Mao”Imperialismo è una tigre di carta”. chissene frega di Mcdonald Coca e vegan, della juve o dei sondaggi elettorali, del tv al plasma e quant’altro? un pochino di viver troglodita è vero, ma si può fare, io già sono a metà dell’opera, quando sparisco gli amici soli sapranno perchè, e come trovarmi. Barnard o altri hanno ragione nella diagnosi della sociatà, ma sbagliano nel loro pessimismo. E’ perchè non hanno figli.

Top

Questo sito utilizza i cookie per migliorare servizi ed esperienza del lettore. Se decidi di continuare la navigazione consideriamo accettato l'utilizzo dei cookie. Leggi tutto ...

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi