sabato 2 settembre 2023
Le sfide: trasparenza, protezione e sicurezza. Gli under 18 possono essere profilati solo per età e provenienza geografica, non più per interessi su cui finora si orientavano le pubblicità mirate
Con l’entrata in vigore del Digital Services Act, i colossi si muovono per cambiare le loro pratiche commerciali. Ma alcune realtà e-commerce hanno fatto ricorso perché incluse con social e motori di ricerca

Con l’entrata in vigore del Digital Services Act, i colossi si muovono per cambiare le loro pratiche commerciali. Ma alcune realtà e-commerce hanno fatto ricorso perché incluse con social e motori di ricerca - .

COMMENTA E CONDIVIDI

Per ragioni diverse Amazon e Zalando hanno contestato la loro inclusione nel primo elenco delle grandi Big Tech mondiali soggette agli obblighi previsti dal nuovo regolamento europeo, il Digital Services Act (DSA), esecutivo in Europa da poco più di una settimana. La deadline del 25 agosto ha costretto diciannove tra grandi aziende tecnologiche e motori di ricerca, da Google a Bing, da Booking a Alibaba Express a una corsa per modificare le proprie pratiche commerciali e implementare nuove misure, dalla limitazione della pubblicità personalizzata alla modifica delle politiche sull’incitamento all’odio, per adeguarsi al DSA. Per ora le nuove regole si applicano solo alle grandi piattaforme online con più di 45 milioni di utenti nell’Ue, ma da metà febbraio si applicheranno a diverse piattaforme online, indipendentemente dalle dimensioni.

L’Ue è considerata il leader globale nella regolamentazione tecnologica, con atti legislativi di ampio respiro in arrivo – come il Digital Markets Act e l’AI Act –, il successo nel Vecchio Continente dell’attuazione di tali leggi influenzerà l’introduzione di norme simili in tutto il mondo. La nuova normativa comunitaria sui servizi digitali è incentrata su una maggiore trasparenza degli algoritmi e della pubblicità, sulla protezione dei minori, sulla lotta alla violenza online e alla disinformazione. E impatta enormemente sulla profilazione degli utenti online che rappresenta da sempre la principale fonte di reddito per le grandi piattaforme online: su questo punto ricercatori e analisti hanno sollevato parecchi dubbi sul fatto che le Big Tech abbiano fatto abbastanza per soddisfare le aspettative del legislatore. La X Corp di Elon Musk, ex Twitter, ha risposto annunciando una specifica policy sull’incitamento all’odio con nuove limitazioni. Meta, proprietaria di Facebook e Instagram, per cui si sta anche studiando la possibilità di una versione premium senza pubblicità per l’Europa, ma anche Snapchat e TikTok hanno fatto sapere di essersi mosse per offrire a milioni di utenti la possibilità di disattivare alcuni contenuti personalizzati: considerati fondamentali dalle stesse piattaforme perché in grado di trattenere al suo interno gli utenti, imponendo loro con l’automatismo dell’algoritmo che cosa vedere. A queste stesse società, così come a Google, è stato richiesto anche di limitare la pubblicità mirata ai minori di 18 anni che potranno essere profilati unicamente per età e città di provenienza e non più su interessi e passioni. E più in generale agli utenti dovranno essere fornite più informazioni sul motivo per cui vengono profilati da determinate attività di marketing.

Due delle società scelte per la regolamentazione anticipata – il colosso dell’e-commerce Amazon e il rivenditore di moda tedesco Zalando – stanno attualmente contestando con motivazioni diverse la loro inclusione nell’elenco in tribunale. Amazon ha presentato un ricorso legale al Tribunale di Lussemburgo, il secondo più alto in grado in Europa e ha affermato che la il regolamento Ue dovrebbe concentrarsi sulle aziende che distribuiscono informazioni e per le quali la pubblicità rappresenta il loro reddito principale. «Possiamo aspettarci che le piattaforme combatteranno con le unghie e con i denti per difendere le loro pratiche», ha affermato lo statunitense Kingsley Hayes, responsabile del contenzioso sui dati e sulla privacy nello studio legale Keller-Postman. «Soprattutto quando le nuove regole di conformità invadono i loro modelli di business principali».

Il caso di Zalando, invece, ha assunto peculiarità differenti: il ricorso depositato alla Corte di giustizia Ue contesta la decisione della Commissione Europea di classificare l’e-commerce tedesco di moda nella stessa categoria delle principali Big Tech globali, come Google e Meta. Secondo la nuova normativa, Zalando è una VLOP - Very Large Online Platform, una piattaforma online molto grande con più di 45 milioni di utenti. E questo benché la piattaforma fondata a Berlino nel 2008 e con un giro di affari di 10,3 miliardi di ricavi nel 2022, abbia dichiarato 31 milioni di utenti medi mensili. Quindi teoricamente al di sotto di sotto della soglia del Vlop. Inoltre, a detta di Zalando la Commissione non ha compreso la logica del modello di business dell’e-commerce tedesco: il 64% dei suoi ricavi passa dai servizi al dettaglio, esclusi dal Dsa, e solo il 36% coinvolge case di moda, rivenditori e negozi.

Questo nodo dei ricorsi andrà sciolto, bisognerà sicuramente attendere i tempi della giustizia.


I colossi Big-Tech sono ora soggetti a obblighi più severi in termini di segnalazione e rimozione di contenuti illegali, lotta alla disinformazione, tutela dei minori e targeting della pubblicità

Mentre per l’applicazione e il controllo stringente rispetto alle nuove regole sarà necessario anche di un cambiamento culturale: serviranno da un lato una maggiore consapevolezza degli utenti sul funzionamento dei social e dei motori di ricerca e su come i propri dati vengono usati, dall’altro una responsabilità più grande delle Big Tech in termini di trasparenza. In mezzo la comunità scientifica pronta a interpretare i nuovi dati a disposizione. Qualsiasi azienda trovata a violare il Digital Services Act rischia già oggi una multa fino al 6% del suo fatturato globale; inoltre ai soggetti recidivi potrebbe essere vietato di operare in Europa. Tutte le piattaforme, inoltre, devono dotarsi di organismi che spieghino le ragioni per cui un contenuto è stato rimosso o sottoposto a un’azione di moderazione che permette di nascondere un determinato utente da una comunità online, e al tempo stesso gli stessi colossi Big Tech avranno da gestire eventuali ricorsi. Gli utenti possono sempre rivolgersi a un giudice, ma nel 2024 il DSA istituirà anche organismi indipendenti, a livello nazionale, per gestire le cause. In Italia la Commissione europea sta firmando un memorandum of understanding con l’Autorità garante per le comunicazioni (Agcom), affinché funga da snodo locale per la gestione delle regole del DSA. Nick Clegg, presidente degli affari globali di Meta, ha affermato di aver «messo insieme uno dei più grandi team multifunzionali della nostra storia, con oltre 1.000 persone che attualmente lavorano sulla nuova regolamentazione». TikTok ha fatto sapere di aver assegnato più di 1.000 dipendenti a questo lavoro di controllo in modo da conformarsi alle nuove regole. Si tratta, dunque, di un enorme lavoro di verifica e controllo a capo della comunità scientifica e della società necessario se si vuole frenare il potere delle Big Tech e salvaguardare la libertà di concorrenza nei mercati digitali.


Che cos'è il Digital Services Act

Diciannove grandi piattaforme online con oltre 45 milioni di utenti nell'Ue sono già state designate e sono tenute a rispettare gli obblighi del Digital Services Act, la nuova legge comunitaria sui servizi digitali. Si tratta di 2 grandi motori di ricerca (VLOSEs, in gergo) - Bing e Google Search - e 17 grandi piattaforme online (VLOPs): social media (Facebook, Instagram, Twitter, TikTok, Snapchat, LinkedIn, Pinterest), servizi di commercio elettronico (Alibaba AliExpress, Amazon Store, Apple AppStore, Zalando), servizi Google (Google Play, Google Maps e Google Shopping), e anche Booking.com, Wikipedia e YouTube.

I requisiti da rispettare secondo il Digital Services Act coinvolgono la responsabilizzazione e la protezione degli utenti online attraverso la mitigazione dei "rischi sistemici" e l'applicazione di "solidi strumenti di moderazione dei contenuti", si legge nel testo del Regolamento Ue. Sono compresi i sistemi di profilazione e raccomandazione di contenuti, privacy e sicurezza dei minori online, contenuti illegali ed effetti negativi sulla libertà di espressione e di informazione, accesso ai dati per i ricercatori attraverso un meccanismo speciale.

© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: