Cosa dicono le policies di Instagram sui contenuti per adulti
I divieti sulla piattaforma sono, in teoria, estremamente stringenti. Nonostante le concessioni dell'ultimo periodo
22/01/2024 di Gianmichele Laino
C’è stato un tempo, su Instagram, in cui era impossibile persino mostrare un capezzolo. E ricordiamo – forse lo ricorderete anche voi – le battaglie infinite delle star (Madonna in testa) per le foto artistiche con seni nudi. Da un lato, c’erano le rigide regole di una piattaforma che si stava dando dei confini e che cercava di essere il più possibile accessibile ai minori, dall’altro c’erano le esigenze dell’arte, che di certo non si possono fermare di fronte a un maglione a collo alto. Tuttavia, la censura del capezzolo era funzionale alla moderazione sul nudo in generale: insomma, si era particolarmente severi per non farsi sfuggire nulla. Per questo le policies di Instagram sul nudo continuano a essere uno dei punti su cui gli algoritmi delle piattaforme insistono di più: user experience e stop alla diffusione dei contenuti illeciti sono le motivazioni principali di tutto ciò. Certo, poi magari basta l’escamotage di creare un countdown di tre minuti per aggirare queste restrizioni, ma – ad oggi – Instagram è sicuramente il social network su cui si presta maggiore attenzione rispetto alla diffusione di video per adulti.
LEGGI ANCHE > Tre minuti di banner bastano a ingannare Instagram e a diffondere contenuti per adulti
Policies Instagram su nudo, come si regola la piattaforma
Al momento, sulla diffusione di immagini di nudo, le linee guida di Instagram recitano come segue:
«Non consentiamo immagini di nudo su Instagram, salvo alcune eccezioni (ad esempio, foto di cicatrici dovute a mastectomia e di donne che allattano al seno). Sono inoltre consentite le fotografie di quadri e sculture raffiguranti nudi».
Sicuramente un passo in avanti, dal momento che era capitato, anche in passato, che diversi musei del mondo si vedessero censurare alcuni contenuti a causa della pubblicazione di foto ai quadri o alle statue di nudo, espressione artistica di ogni epoca storica. Inoltre, il riferimento alla mastectomia e alle donne che allattano al seno porta Instagram a essere sicuramente una piattaforma più inclusiva e meno moralista. Tuttavia, Instagram ha dato molto spazio di manovra anche agli utenti, testando una funzionalità denominata Nudity protection. In questo modo, si consente all’utente stesso di bloccare in automatico qualsiasi tipo di foto di nudo, in modo tale da non farla comparire all’interno del feed.
È molto recente, invece, la decisione dell’Oversight Board di Meta (l’organismo interno che cerca di avere uno sguardo terzo sulle controversie legate alle piattaforme social di proprietà della società di Menlo Park) relativa alla “liberazione” delle foto ai capezzoli, sottolineando come queste ultime possano rappresentare (ad esempio per le persone trans) una forma di liberazione e di espressione.
Tuttavia, restano le forti restrizioni – invece – su scene di nudo esplicite e anche sul linguaggio sessualmente esplicito. Come abbiamo avuto modo di vedere, gli account di piattaforme per adulti come PornHub sono stati bannati in partenza, per evitare problemi. Allo stesso modo, è capitato che contenuti legati all’educazione sessuale (in cui, per forza di cose, si utilizzavano parole legate al lessico del sesso) potessero essere censurati perché riconosciuti automaticamente come espliciti. Il tutto nonostante la massima attenzione che i content creators dedicano abitualmente alla produzione di questo tipo di materiali.
In ogni caso, la moderazione relativa al nudo su Instagram continua a essere molto controversa e – addirittura – oggetto di studio da parte dei ricercatori. Una di queste, Carolina Are, ha dedicato larga parte della sua carriera allo studio della moderazione di Instagram relativa a soggetti di vario tipo (tra questi, gli attivisti che parlano di body positivity oppure gli istruttori di pole-dance) e ha anche fornito diverse indicazioni a Meta per migliorare e rendere più efficaci le sue policies sul tema.