La propaganda no-vax infetta i risultati di ricerca su Facebook e YouTube
Nonostante il problema sia noto da tempo, i principali colossi del web non riescono a trovare misure efficaci per scoraggiare la disinformazione degli anti-vaccinisti. Se vogliamo avere una misura di quanto le campagneno-vaxsiano pericoloseper la salute pubblica, basta vedere cosa è successonegli Stati di Washington e Oregon, entrambi instato d’emergenzaper un’epidemia di morbillo dovuta proprio alla scarsa copertura vaccinale.
Il problema dei sistemi di indirizzamento
Anche l’Italia non sembra immune, basti pensare a quanto è stata efficace l’opera di alcune organizzazioni «free-vax» nostrane. Perché la disinformazionesul tema continuaa proliferare, nonostante l’infondatezza di queste tesi sia stata ormai accertata? Potremmo provare a rispondere a questa domandaosservando i le risposte dei social network alle ricerche degli utenti.
Un’inchiesta svolta dal Guardian si focalizza in particolare su Facebook e YouTube. In entrambi, gli utenti che cercano informazioni sui vaccini hanno grosse probabilità di incappare su contenuti che fanno disinformazione. La narrazione utilizzata è spesso studiata ad arte per agganciare i genitori, con risultati considerevoli, anche in periodi in cui infuriano le epidemie di morbillo.
Suggerimenti di ricerca su YouTube
La fragilità degli algoritmi di raccomandazione
Su Facebook continuano a prosperare gruppi e pagine di organizzazioni no-vax. YouTube invece ha un algoritmo di raccomandazione «condizionato» dalla disinformazione medica. Non a caso proprio l’Oms ha inserito recentemente la riluttanza ai vaccini tra le principali minacce alla salute pubblica per il 2019, assieme al problema della resistenza dei batteri agli antibiotici.
Non deve sorprendere il fatto che gli possano essere «condizionati»:questo è uno dei problemi a cui si dovrà far fronte anche nel campo dell’Intelligenza artificiale, tanto che l’Unione europea ha in programma un vero e proprio codice etico per tutelare i suoi cittadini dagli «effetti collaterali» degli algoritmi.
Lettori sempre meno attenti
A questo si deve aggiungere anche un aspetto che riguarda l’uso sempre più frequente dei dispositivi mobili, senza contare che la lettura digitale riduce il livello di attenzione, abbassando le difese di chi vorrebbe informarsi in maniera adeguata su un certo argomento.
Suggerimenti di ricerca su Facebook
I sistemi di controllo sono ancora inadeguati e obsoleti
Sia Facebook che YouTube stanno studiando metodi per rendere meno visibili i contenuti scorretti. Il problema resta sempre quello di trovare la ricetta giusta.
Il sospetto che possano esserci statianche dei gravi errorièin agguato, basti ricordare quanto accadde al nostro David Puente e ad altri colleghi, che si sono ritrovaticon gli account blocccatia causa di una segnalazione in massa da parte di un gruppo di anti-vaccinisti.
Continuano insomma a esistere meccanismi obsoleti anche nelle procedure di segnalazione, portando chi cerca di porre una pezza alla disinformazione a trovarsi contro lo stesso social network che invece dovrebbe tutelarlo.
Gli effetti avversi del controllo sulle parole chiave
Su YouTube si vorrebbe continuare la politica in parte cominciata con la «adpocalypse», ovvero di scoraggiare la pubblicazione dei contenuti con parole chiave che rimandano a tesi pseudo-scientifiche o all’odio razziale e politico.
Ma questo porta a effetti paradossali: logicamentechi cerca di fare informazione corretta denunciando le bufale usale medesime parole chiave incriminate, trovandosi quindialtrettanto penalizzato. Alessandro Masala (Breaking Italy) è uno dei tanti influencer della community italiana che ha subito maggiori danni -soprattutto economici -per via di questi «effetti avversi».
Altre falle nei sistemi di controllo
A questi problemi si aggiungono varie «scorciatoie normative». Spesso i contenutino-vax non violano le norme interne dei social. A questo va aggiunto che persino le inserzioni pubblicitarie contenenti propaganda disinformativa potrebbero aggirare senza problemi i controlli, contribuendo ad alimentare il problema.
I suggerimenti che compaiono nelle barre di ricerca automatica non aiutano certo, rimandando a parole chiave anti-vacciniste. Persino ricerche neutre, come l’uso del semplice termine «vaccino» possono indirizzare a contenuti pseudo-scientifici.