Seguici
Iscriviti alla nostra newsletter

    Metaverso, chi garantisce la sicurezza degli utenti? La risposta “Is blowing in the wind”

    Un gruppo di aziende tecnologiche è impegnato a riscrivere le regole dell’universo virtuale e della realtà estesa, ma sarà difficile raggiungere l’obiettivo senza il contributo attivo degli utenti

    di Tanya Basu

    Internet può sembrare un pozzo senza fondo degli aspetti peggiori dell’umanità. Finora, ci sono poche indicazioni che il metaverso, un mondo digitale virtuale in cui lavoriamo, giochiamo e viviamo, sarà molto migliore. Come già ho scritto in un precedente articolo, una beta tester della piattaforma social virtuale di Meta, Horizon Worlds, si è già lamentata di essere stata molestata.

    Tiffany Xingyu Wang sente di avere una soluzione. Nell’agosto del 2020, più di un anno prima che Facebook annunciasse che avrebbe cambiato nome in Meta e spostato l’attenzione dalla sua piattaforma di social media di punta ai piani per il proprio metaverso, Wang ha lanciato l’Oasis Consortium, un gruppo non profit di società di giochi online che mira alla creazione di “una rete Internet etica in cui le generazioni future si muoveranno libere dall’odio”. 

    Come? Wang pensa che Oasis possa garantire un metaverso migliore e più sicuro aiutando le aziende tecnologiche ad autoregolarsi. All’inizio di questo mese, il gruppo ha pubblicato i suoi User Safety Standards, una serie di linee guida che includono l’assunzione di un responsabile della fiducia e della sicurezza, l’utilizzo della moderazione dei contenuti e la lotta alla tossicità online. Le aziende che aderiscono al consorzio si impegnano a lavorare per raggiungere questi obiettivi.

    “Voglio spingere il web e il metaverso in una nuova direzione”, afferma Wang, che ha trascorso gli ultimi 15 anni lavorando nell’AI e nella moderazione dei contenuti. “Se il metaverso sopravvive, deve garantire la sicurezza al suo interno”. Ha ragione: il successo della tecnologia è legato alla sua capacità di garantire che gli utenti non subiscano alcun tipo di offesa. Ma possiamo davvero credere che le aziende della Silicon Valley saranno in grado di autoregolarsi nel metaverso?

    Un progetto per un metaverso più sicuro

    Le aziende che hanno aderito a Oasis includono, tra le altre, la piattaforma di gioco Roblox, l’app di incontri Grindr e il gigante dei videogiochi Riot Games. Tra di loro hanno centinaia di milioni di utenti, molti dei quali stanno già utilizzando attivamente gli spazi virtuali. Tuttavia, Wang non ha ancora parlato con Meta, probabilmente il più grande player futuro del metaverso. 

    La sua strategia è avvicinarsi alle Big Tech quando vedranno i cambiamenti significativi che Oasis sta introducendo. (Meta mi ha indicato due documenti quando gli è stato chiesto dei suoi piani per la sicurezza nel metaverso: un comunicato stampa che descrive in dettaglio le partnership con gruppi e individui per “costruire il metaverso in modo responsabile” e un post sul blog sulla sicurezza degli spazi VR. Entrambi sono stati scritti dal CTO di Meta, Andrew Bosworth). 

    Wang punta a garantire la trasparenza in almeno due modi. Uno è creare un sistema di classificazione per garantire che il pubblico sappia il livello di fiducia e sicurezza garantito da un’azienda, non diversamente dal sistema con cui molti ristoranti ricevono dei voti dai clienti per valutare qualità e pulizia. Un altro è richiedere alle aziende associate di assumere un responsabile della fiducia e della sicurezza. Questa pratica è diventata sempre più comune nelle aziende più grandi, ma non esiste una serie concordata di standard a cui ogni responsabile della fiducia e della sicurezza deve attenersi, afferma Wang. 

    Tuttavia, gran parte del piano di Oasis rimane, nella migliore delle ipotesi, idealistico. Un esempio è la proposta di utilizzare l’apprendimento automatico per rilevare molestie e incitamento all’odio. Come ha riportato Karen Hao l’anno scorso, i modelli di intelligenza artificiale danno all’incitamento all’odio troppe possibilità di diffondersi. In ogni caso, Wang difende la promozione dell’AI da parte di Oasis come strumento di moderazione. “Le piattaforme”, spiega, “condividono diverse pratiche di moderazione, ma tutte perseguono gli stessi obiettivi: una migliore precisione, tempi di reazione più rapidi e maggiore sicurezza grazie al lavoro preventivo”.

    Il documento è lungo sette pagine e delinea il programma futuro del consorzio. Gran parte di esso si legge come una dichiarazione di intenti e, come ricorda Wang, il lavoro dei primi mesi si è concentrato sulla creazione di gruppi consultivi per definire gli obiettivi. Altri elementi del piano, come la sua strategia di moderazione dei contenuti, sono vaghi. Wang afferma che vorrebbe che le aziende assumessero una gamma diversificata di moderatori di contenuti in modo da comprendere e combattere le molestie di genere e quelle nei confronti delle persone di colore. Ma il piano non indica ulteriori passi verso il raggiungimento di questo obiettivo.

    Il consorzio si aspetta inoltre che le aziende associate condividano i dati sui comportamenti “aggressivi” degli utenti, in modo da identificare con più facilità i recidivi. E’ prevista anche, spiega Wang, la collaborazione delle aziende tecnologiche partecipanti con organizzazioni non profit, agenzie governative e forze dell’ordine per contribuire a creare politiche di sicurezza. Oasis dovrebbe disporre di un team il cui compito sarà informare la polizia di molestie e abusi. Ma non è chiaro come si articolerà il lavoro di questa task force che agirà in unisono con le forze dell’ordine.

    Privacy e sicurezza: un’accoppiata difficile

    Nonostante la mancanza di dettagli concreti, gli esperti con cui ho parlato pensano che il documento di standard del consorzio sia almeno un buon primo passo. “È positivo che Oasis stia guardando all’autoregolamentazione”, afferma Brittan Heller, un avvocato specializzato in tecnologia e diritti umani. Non è la prima volta che le aziende tecnologiche lavorano insieme in questo modo. Nel 2017, alcuni hanno accettato di scambiare informazioni liberamente con il Global Internet Forum to Combat Terrorism. Oggi GIFCT rimane indipendente e le aziende che vi aderiscono si autoregolamentano.

    Ma, secondo Heller, il design etico potrebbe non essere sufficiente. A suo parere, le aziende tecnologiche dovrebbero riorganizzare i loro termini di servizio, che sono stati al centro delle polemiche per aver approfittato dei consumatori senza esperienza legale. Lucy Sparrow, una ricercatrice della School of Computing and Information Systems all’University of Melbourne, è d’accordo, anche se stenta a credere che un gruppo di aziende tecnologiche agirà nel migliore interesse dei consumatori. 

    “Mi vengono in mente due domande”, dice. “La prima, quanto ci fidiamo che le società a capitalizzazione controllino la sicurezza? La seconda, quanto controllo vogliamo che le aziende tecnologiche abbiano sulle nostre vite virtuali?”. La situazione è complessa, soprattutto perché gli utenti hanno diritto sia alla sicurezza che alla privacy, ma queste esigenze possono essere in rotta di collisione.

    Per esempio, gli standard di Oasis includono linee guida per presentare reclami alle forze dell’ordine se gli utenti sono molestati. Se una persona vuole presentare una segnalazione all’istante, spesso è difficile farlo, perché per motivi di privacy, le piattaforme spesso non registrano cosa sta succedendo. Il cambiamento proposto farebbe una grande differenza nella capacità di intervenire sui recidivi, che a oggi possono impunemente portare avanti abusi e molestie su più piattaforme, perché queste ultime non comunicano tra loro i nominativi di questi utenti. Tuttavia Heller afferma che, pur essendo un’ottima idea in teoria, è difficile da mettere in pratica, perché le aziende sono obbligate a mantenere private le informazioni degli utenti in base ai termini del servizio.

    “Come si possono rendere anonimi questi dati e mantenere la condivisione efficace?” si chiede. “Quale dovrebbe essere la soglia per condividere i dati personali? Come rendere trasparente il processo di condivisione delle informazioni e favorire l’espulsione degli utenti recidivi? Chi avrebbe l’autorità per prendere tali decisioni?”. “Non ci sono precedenti”, aggiunge, “di aziende che condividono informazioni con altre società su utenti che violano i termini di servizio per molestie o comportamenti simili. 

    Una migliore moderazione dei contenuti potrebbe bloccare le molestie alla fonte. Tuttavia Heller non è chiara su come Oasis pianifichi questo tipo di standardizzazione, in particolare il rapporto tra un supporto testuale e uno più virtuale. “La moderazione dei contenuti basata sull’intelligenza artificiale nei feed dei social media per limitare l’incitamento all’odio è principalmente basata sul testo”, afferma Heller. “La moderazione dei contenuti in VR, che dovrà principalmente tracciare e monitorare il comportamento e gli attuali meccanismi di segnalazione della realtà estesa (virtuale e aumentata), appaiono nella migliore delle ipotesi stravaganti e spesso inefficaci. L’AI non può automatizzare i meccanismi oltre un certo punto”.

    Questa situazione pone l’onere di denunciare gli abusi sull’utente. L’audio e il video spesso non vengono registrati, rendendo più difficile stabilire la prova di un’aggressione. Anche tra quelle piattaforme che registrano l’ audio, dice Heller, la maggior parte conserva solo frammenti, rendendo difficile comprendere il contesto, se non impossibile da capire. Il problema è che le aziende non hanno mai avuto un grande track record nella protezione della salute e della sicurezza dei consumatori nella storia di Internet, quindi perché aspettarsi qualcosa di diverso ora?

    “Il punto vero”, dice Sparrow, “è avere un sistema che permetta di segnalare che tipo di comportamenti ci si aspetta e che conseguenze sono previste per quei comportamenti che sono fuori linea”. Ciò potrebbe significare il coinvolgimento di altri stakeholder e cittadini comuni, o una sorta di governance partecipativa che consenta agli utenti di testimoniare e agire come una giuria. Una cosa è certa, però: la sicurezza nel metaverso richiede l’impegno non solo di un gruppo di aziende tecnologiche che promettono di salvaguardarci.

    (rp)

    Related Posts
    Total
    0
    Share