![]() |
Nel gennaio del 2012 Facebook ha condotto un esperimento
all'insaputa di circa 700.000 mila utenti: molti di loro sono stati
esposti a "contenuti emotivi" delle pagine che osservavano di tipo
fortemente positivo, altri a contenuti molto negativi.
A seconda dei contenuti osservati, le persone postavano commenti positivi o negativi come reazione a quanto letto. Era evidente un fenomeno ben conosciuto in psicologia come "contagio emotivo".
Quando venne pubblicato il risultato dello studio vi
furono critiche e pesanti reazioni per tale esperimento, peraltro
legale, su temi così delicati come l'etica e la privacy on-line.
Forse non tutti sanno che l'algoritmo sottostante a Facebook e che
ci propone quotidianamente gli aggiornamenti, che vediamo scorrere
nella nostra pagina si basa già su una serie di principi, totalmente
automatizzati, stabiliti per dare priorità a uno o all’altro contenuto
in base agli amici con cui entriamo più spesso in contatto o alla
popolarità di uno stato o di una foto. Come dire, l'algoritmo ci
indirizza già verso determinati contenuti, pensati per noi.
Nel caso dell'esperimento i ricercatori di Facebook hanno utilizzato il software Linguistic Inquiry and Word Count,
ed i risultati hanno mostrato come la condivisione di emozioni positive
ci porti ad esprimerne di altrettanto ottimistiche mentre vedere amici e
conoscenti di cattivo umore ci condiziona in questo senso.
Da notare che alla sottoscrizione di Facebook noi tutti
accettiamo le condizioni di questo servizio e le relative profilazioni.
Quindi nulla di illegale, ma credo che ben pochi di noi siano
consapevoli di quello che sottoscrivono: poi gli algoritmi che diavolo sono?
Mi risponda chi lo sa e ne conosce l'utilizzo. Facebook cambia il suo
algoritmo quando e come vuole senza doverci chiedere ulteriore assenso
tacito o esplicito.
E' anche vero che nel 2012 oltre 340.000 persone si
sono recate a votare in elezioni del Congresso Americano dopo avere
letto commenti di amici su Facebook, orientati in un senso o nell'altro
(Democratici o Repubblicani) e qui non si parla di scegliere una bevanda
o un hamburger ma si tratta di "comunicazione politica".
Va detto che il gruppo di ingegneri di Facebook ha
lavorato in collaborazione con ricercatori delle Università della
California e della Cornell, stupiti per le reazioni della stampa e dei
media in generale per tale "ricerca". Gli ingegneri di Facebook hanno
manipolato l'algoritmo per orientare le reazioni e studiare l'effetto
sugli ignari lettori, senza chieder alcun permesso o scusarsi poi. Ad
onore del vero uno degli ingegneri, tale Adam Kramer, membro
della squadra di analisi dei dati di Facebook e fra gli autori dello
studio ha detto che lo scopo della ricerca era rendere migliore il
servizio e si è mostrato: "... Dispiaciuto per l'ansia causata nei lettori". Come dire che lo studio è stato fatto per i lettori e non c'è motivo di non credere alla buona fede di Facebook.
E voi cosa ne pensate...?
Aggiornamento di settembre 2012: su un server ad accesso libero sono stati trovati i dati di 419 milioni di utenti Facebook, account e numeri di telefono. Facebook, interpellata, ha minimizzato la cosa e assicurato che ora tutto è sotto controllo e non accadrà più.
No comment...
Aggiornamento di settembre 2012: su un server ad accesso libero sono stati trovati i dati di 419 milioni di utenti Facebook, account e numeri di telefono. Facebook, interpellata, ha minimizzato la cosa e assicurato che ora tutto è sotto controllo e non accadrà più.
No comment...
Nessun commento
Nota. Solo i membri di questo blog possono postare un commento.