Myfacemood - Chi è da accusare per l'oltraggio algoritmico

Questa settimana, abbiamo assistito alla capacità dei principali Social Network di indirizzare la pubblicità a gruppi decisamente sconvenienti, generati o suggeriti da importanti aziende Internet (Fonte The Crunch)!

<Odiare gli ebrei>, anche se fortunatamente nel mondo sono rimasti in pochi ad avere questa tendenza, era la frase che si trovava nel backend degli annunci sponsorizzati di Facebook che lo metteva tra i suggerimenti.

<Provate ad aggiungere “Ebrei in forno” per ampliare la ricerca…>, suggeriva Google.

<Il Nazista, potrebbe riuscire a rivolgersi a ben 18,6 milioni di utenti>, diceva Twitter.

Parole chiave consigliate da Twitter

Stiamo usando il verbo al passato perchè ovviamente, adesso, tutti questi “suggerimenti” non li troverete più!

Alcune delle principali piattaforme li hanno già tolti dopo essere state avvertite di questi abusi sconcertanti presenti nel loro sistema, in altre invece li troverete ancora (come nella foto riportata qui sopra), ma ciò che è ancora più scioccante sono le risposte che queste aziende hanno fornito come scuasanti superficiali e poco convincenti:

“Tutto questo è contro le nostre regole, non abbiamo idea di come sia accaduto, ma adesso è tutto sistemato!”

C’è stato da sempre un gran parlare riguardo all’odio razziale, al bullismo e ad ogni tipo di violenza su tutte le varie piattaforme sociali, ed anche discorsi atti a contrastare la reale possibilità di polarizzazione algoritmica.

Ma poi le stesse aziende che sventolavano ai quattro venti questo tipo di propagande, sembravano molto felici di fare soldi dalla pubblicità mirata a gruppi come: “Hitler non ha fatto nulla di sbagliato!”

Pagina di Fb Hitler non ha fatto nulla di sbagliato!

Come mai nessuno di loro, con migliaia di dipendenti, di task force dedicate e di “ufficiali della diversità”, ha visto quanto accadeva?

Non appena però qualcuno gli ha fatto notare pubblicamente quanto fosse facile accedere a questi contenuti, gli annunci “sono stati chiusi rapidamente”, sottolineano…
Rimane il fatto che comunque erano lì ed erano contro le regole!

Perché dovremmo fidarci adesso? Dovremmo lasciar perdere?

Tutto ciò non è nato dal caso o da una svista! Qualcuno ha letteralmente messo parole come “nazi” nei comuni sistemi pubblicitari di alcune delle più grandi piattaforme digitali della Terra, piattaforme che hanno ripetutamente e specificatamente dichiarato la loro dedizione a non permettere nessun tipo di odio!

E’ necessaria una notevole quantità di soldi per giustificare gli sforzi, apparentemente grandi, di queste società per combattere la problematica dell’odio con la loro, sempre apparente, incapacità di prevenirla nei sistemi di monetizzazione fortemente controllati? Ok! E’ giusto dare a tutti il beneficio del dubbio, ma a questo punto sorge spontanea una domanda:

E’ forse troppo cinico pensare che queste aziende non siano realmente disposte a istituire restrizioni per chi le paga profumatamente?

La risposta potrebbe essere: “Ma sono stati gli utenti, come avremmo potuto predire qualcosa di simile?”

Beh, se non si riesce a predire quello che può avvenire, probabilmente sarebbe il caso di non fare cospicue promesse sulla prevenzione!
La colpa di questi incidenti di percorso è proprio delle aziende stesse, che hanno creato dei sistemi che ciecamente hanno suggerito e suggeriscono informazioni agli utenti, ma non riescono a fornire delle protezioni contro degli abusi che sono elementari!
Questa tipologia di abuso non è certo stata l’unica, Facebook per esempio ha venduto di recente, per 100.000 dollari (o 5 milioni di rubli), degli annunci di tipologia politica a delle applicazioni web russe!

Se Google, Facebook, Twitter vorranno convincerci che stanno prendendo sul serio questo problema, dedicando risorse reali a questo scopo, dovranno far vedere anche su cosa stanno lavorando!
Tanto per cominciare:

  1. Quali sono i sistemi in atto per prevenire certi abusi?
  2. Come vengono creati e mantenuti i settaggi per i termini offensivi?
  3. Su quali dati sono elaborati gli algoritmi di moderazione?
  4. Come è inserito il feedback e come si ci si può appellare ad una decisione?
  5. Dov’è ancora necessario l’intervento umano?
  6. È compatibile con gli obiettivi della così tanto decantata “libertà di parola” della piattaforma?

Le risposte a queste ed altre domande, sarebbero necessarie per capire se questi sistemi funzionano e se sono realmente efficaci, per capire dove hanno bisogno di essere migliorati!
Dopo tutto, secondo la filosofia di questi social network, tutto dovrebbe essere a nostro vantaggio, giusto?
Non è sufficiente, ne ammissibile e ne tollerabile che queste aziende affermano di lavorare a questo problema pavoneggiando al contempo la loro leadership nel mercato e la loro dedizione ai principi di apertura ed inclusione sociale!

Sarebbe loro dovere invece svolgere tutte le attività con la massima trasparenza e soltanto allora, probabilmente, crederemo che si preoccupano per noi!

2018 © Myfacemood Social Network Italiano | Realizzato da  Hogueraweb

Contattaci

Per qualsiasi domanda o informazione scrivici, risponderemo nel più breve tempo possibile.

Sending
or

Log in with your credentials

or    

Forgot your details?

or

Create Account