Un controverso studio condotto da Facebook dimostra come il social network sia in grado di controllare l’umore degli utenti. Ecco che cosa hanno scoperto, e come, i data scientist californiani.
Qualcosa su Facebook non è andato per il verso giusto.... e gli utenti si sono arrabbiati (REUTERS/Thomas White)
Di
noi ormai sanno tutto: chi sono i nostri amici, come passiamo il tempo
libero, quali sono i nostri gusti e cosa cerchiamo sulla Rete. E
ora sembra che siano anche in grado di influenzare il nostro umore e i nostri
comportamenti. Stiamo parlando dei social netowork, nell’occhio del ciclone
mediatico da un paio di giorni dopo la pubblicazione sull’autorevoleProceedings of the National Academy of Science di
uno studio sociologico condotto da Facebook.
Secondo i ricercatori il feed di aggiornamenti che compare sulla bacheca di ogni utente sarebbe in grado di influenzarne l'umore e, di conseguenza, alcuni comportamenti. E fin qui non ci sarebbe nulla di nuovo
Il problema è che per giungere a questa conclusione i sociologi di Menlo Park hanno manipolato il flusso di news e aggiornamenti sulle home page di 689.000 ignari utenti.
Come ti tarocco il feed
Adam Kramer, Jamie Guillory e Jeffrey Hancock hanno utilizzato LIWC2007 (Linguistic Inquiry and Word Count), un software in grado di identificare alcune parole chiave nei post di Facebook (per esempio "bello", "amore", "brutto", "dolore", ecc) e di estrapolare dal testo l’umore di chi lo ha scritto. Hanno poi utilizzato queste informazioni per dare maggior visibilità ai post positivi o negativi sulle bacheche delle 689.000 social-cavie e, utilizzando lo stesso strumento, hanno analizzato il loro comportamento online nei giorni successivi.
Ne emerso che uno stream di positività sulla nostra bacheca ci spinge a condividere post positivi, così come un flusso di commenti tristi e brutte notizie ci mette di cattivo umore.
Leggete bene prima di accettare
Lo studio è stato condotto nel 2012 su 689.003 utenti di lingua inglese ed è durato per una settimana. La pubblicazione della ricerca ha scatenato le ire di di numerosi utenti e associazioni di consumatori che si sono sentiti usati e manipolati a loro insaputa. Dal canto loro i ricercatori, nell’articolo pubblicato su PNAS, sottolineano come tutto l’esperimento sia avvenuto nel pieno rispetto dei terms of service di Facebook le condizioni che regolano il rapporto tra gli utenti e l'azienda, che nessuno legge ma che tutti accettano al momento dell'iscrizione - e come sia stato condotto in maniera completamente automatica, senza che nessuno abbia avuto accesso ai post e ai contenuti condivisi.
Ma queste rassicurazioni non hanno soddisfatto gli utenti e nemmeno i politici: secondo il Guardian alcuni membri del Parlamento britannico stanno per chiedere alla Camera dei Lord di indagare sul comportamento di Facebook per verificarne la legalità.
Più réclame che propaganda
E non poche perplessità provengono anche dal mondo accademico: secondo James Grimmelmann, docente di diritto all’Università del Maryland, Facebook avrebbe violato più di una legge non informando gli utenti dell’esperimento in corso. E rincara la dose Clay Johnson, esperto di social media e responsabile della campagna elettorale di Obama del 2008: «L’esperimento di Facebook è terrificante. La CIA potrebbe quindi scatenare la rivoluzione in Sudan spingendo Facebook a promuovere il malcontento tra la popolazione?»
Non lo sappiamo… quel che è certo è che, al di là delle ipotesi più complottiste questo contagio emotivo potrebbe avere applicazioni commerciali molto pratiche, per esempio spingendo gli utenti a rimanere connessi più a lungo così da vedere più pubblicità.
Con (tante) scuse dalla Silicon Valley
Nella sua pagina Facebook Kramer spiega che l’interesse dell’azienda era unicamente quello di capire come il mood negativo delle nostre bacheche possa spingerci a disertare il social network e come offrirci un servizio migliore. E, insieme ai colleghi, si scusa con gli utenti per le preoccupazioni che la ricerca ha ingenerato nel pubblico.
Secondo i ricercatori il feed di aggiornamenti che compare sulla bacheca di ogni utente sarebbe in grado di influenzarne l'umore e, di conseguenza, alcuni comportamenti. E fin qui non ci sarebbe nulla di nuovo
Il problema è che per giungere a questa conclusione i sociologi di Menlo Park hanno manipolato il flusso di news e aggiornamenti sulle home page di 689.000 ignari utenti.
Come ti tarocco il feed
Adam Kramer, Jamie Guillory e Jeffrey Hancock hanno utilizzato LIWC2007 (Linguistic Inquiry and Word Count), un software in grado di identificare alcune parole chiave nei post di Facebook (per esempio "bello", "amore", "brutto", "dolore", ecc) e di estrapolare dal testo l’umore di chi lo ha scritto. Hanno poi utilizzato queste informazioni per dare maggior visibilità ai post positivi o negativi sulle bacheche delle 689.000 social-cavie e, utilizzando lo stesso strumento, hanno analizzato il loro comportamento online nei giorni successivi.
Ne emerso che uno stream di positività sulla nostra bacheca ci spinge a condividere post positivi, così come un flusso di commenti tristi e brutte notizie ci mette di cattivo umore.
Leggete bene prima di accettare
Lo studio è stato condotto nel 2012 su 689.003 utenti di lingua inglese ed è durato per una settimana. La pubblicazione della ricerca ha scatenato le ire di di numerosi utenti e associazioni di consumatori che si sono sentiti usati e manipolati a loro insaputa. Dal canto loro i ricercatori, nell’articolo pubblicato su PNAS, sottolineano come tutto l’esperimento sia avvenuto nel pieno rispetto dei terms of service di Facebook le condizioni che regolano il rapporto tra gli utenti e l'azienda, che nessuno legge ma che tutti accettano al momento dell'iscrizione - e come sia stato condotto in maniera completamente automatica, senza che nessuno abbia avuto accesso ai post e ai contenuti condivisi.
Ma queste rassicurazioni non hanno soddisfatto gli utenti e nemmeno i politici: secondo il Guardian alcuni membri del Parlamento britannico stanno per chiedere alla Camera dei Lord di indagare sul comportamento di Facebook per verificarne la legalità.
Più réclame che propaganda
E non poche perplessità provengono anche dal mondo accademico: secondo James Grimmelmann, docente di diritto all’Università del Maryland, Facebook avrebbe violato più di una legge non informando gli utenti dell’esperimento in corso. E rincara la dose Clay Johnson, esperto di social media e responsabile della campagna elettorale di Obama del 2008: «L’esperimento di Facebook è terrificante. La CIA potrebbe quindi scatenare la rivoluzione in Sudan spingendo Facebook a promuovere il malcontento tra la popolazione?»
Non lo sappiamo… quel che è certo è che, al di là delle ipotesi più complottiste questo contagio emotivo potrebbe avere applicazioni commerciali molto pratiche, per esempio spingendo gli utenti a rimanere connessi più a lungo così da vedere più pubblicità.
Con (tante) scuse dalla Silicon Valley
Nella sua pagina Facebook Kramer spiega che l’interesse dell’azienda era unicamente quello di capire come il mood negativo delle nostre bacheche possa spingerci a disertare il social network e come offrirci un servizio migliore. E, insieme ai colleghi, si scusa con gli utenti per le preoccupazioni che la ricerca ha ingenerato nel pubblico.
http://www.focus.it/comportamento/manipolati-da-facebook02072014_7844_C12.aspx
Nessun commento:
Posta un commento
I commenti spam, offensivi, non pertinenti e quelli riportanti indirizzi mail o link sospetti saranno cancellati.