“Siamo decisamente soddisfatti” che la Procura di Milano abbia “aperto una
indagine nei confronti dei vertici di Google Ireland e Italia per il reato di
ricettazione, e per concorso in diffamazione. Chiederemo identico intervento
contro Youtube, Meta e Tik tok“. A manifestare questa soddisfazione sono gli
avvocati di Alfonso Signorini, Domenico Aiello e Daniela Missaglia.
L’ex conduttore Mediaset (si è autosospeso) è al centro di un’indagine su un
presunto sistema illecito denunciato da Fabrizio Corona. Intanto però i suoi
avvocati hanno ottenuto dal Tribunale civile di Milano un’ordinanza che esortava
Corona a rimuovere i video passati e a non pubblicarne più altri dello stesso
tenore sul loro assistito. La puntata di Falsissimo, il format dell’ex re dei
paparazzi, del 26 gennaio è però andata in onda e, secondo Aiello e Missaglia,
questo è accaduto perché si “è preferito tenere tutto in rete”.
“Non è possibile, neanche per i colossi del web, limitare l’accesso alle tutele
o alle azioni giudiziarie di fronte ad azioni illecite di tale gravità. Questi
operatori macinano ricavi superiori al nostro Pil – si legge ancora nella nota
dei due legali – e pretenderebbero attraverso strutture societarie complesse e
l’imposizione all’utente di forme rigorose di segnalazione delle pubblicazioni
illecite, di rendere difficoltoso se non inaccessibili ogni legittima richieste
di verifica e rimozione di notizie false o documenti acquisiti illecitamente.
Ogni tentativo di corrispondenza con questi signori assume toni dilatori e
pilateschi, spesso si rinvia a procedure o interlocutori di comodo. E intanto il
danno come i ricavi aumentano giorno dopo giorno”.
Secondo Aiello e Missaglia il web e le piattaforme citate, come dimostrano i
numeri di visualizzazioni di ‘Falsissimo‘, sono “uno strumento a disposizione
dei malintenzionati, letale, criminogeno, che si vuole ad ogni costo
deresponsabilizzato. Anche dopo precise e documentate richieste di rimozione e
oscuramento”.
L'articolo Gli avvocati di Signorini contro Youtube, Meta e TikTok: “Strumenti a
disposizione dei malintenzionati, letali, criminogeni” proviene da Il Fatto
Quotidiano.
Tag - Meta
La Bbc ha raccontato le storie di due donne, filmate senza il loro consenso
tramite gli occhiali Ray-Ban Meta Ai e insultate su Tiktok. La prima, Dilara,
stava pranzando nel negozio londinese in cui lavora quando un uomo alto le si è
avvicinato dicendole: “I capelli rossi significano che hai appena avuto il cuore
spezzato”. Il ragazzo, col tentativo di ottenere il numero di Dilara, ha
proseguito la conversazione in ascensore, chiedendole il numero di telefono. La
ragazza si è gentilmente rifiutata e l’uomo non ha insistito.
La vittima ha scoperto in un secondo momento di essere stata filmata di nascosto
con gli occhiali smart e che il video aveva ricevuto 1.3 milioni di
visualizzazioni su Tiktok. L’uomo che ha girato e poi postato il filmato sui
social aveva già pubblicato decine di video senza il consenso delle persone.
Come se la violazione dell’immagine non bastasse, Dilara ha scoperto che il suo
numero di telefono era ben visibile nel video. Le persone hanno iniziato a
inviare centinaia di messaggi alla ragazza, che ha dovuto cambiare numero.
Una storia simile è accaduta a Kim, un’altra donna inglese. Come raccontato alla
Bbc, la 56enne è stata approcciata su una spiaggia nel West Sussex da un uomo
che indossava gli smart-glasses Meta. Il ragazzo ha iniziato la conversazione,
complimentandosi per il bikini. Kim non sapeva di essere ripresa mentre
chiacchieravano.
La scoperta è arrivata in un secondo commento, quando il video è stato postato
su Tiktok e visto da quasi 7 milioni di utenti. La Bbc ha riportato che la
maggior parte di utenti che postano questa tipologia di filmati sono uomini
adulti che consigliano alle persone come approcciare una donna. Gli utenti
offrono suggerimenti in cambio di abbonamenti al loro canale.
DILARA, KIM E NON SOLO
Dilara e Kim sono solo due delle donne che si sono rivolte alla Bbc per
denunciare il fatto. Tuttavia, coloro che hanno filmato e pubblicato i video
senza consenso delle vittime non possono essere puniti perché non hanno commesso
reato. Nel Regno Unito, infatti, non esiste una legge specifica che vieti di
filmare qualcuno in pubblico senza il suo consenso. Dilara ha segnalato il video
e Tiktok ha contattato la ragazza, dichiarando di non aver riscontrato
violazioni. Dato il gran numero di insulti nei commenti, il social network ha
rimosso il video per “bullismo e molestie”. Sempre alla Bbc, Dilara ha
dichiarato: “Le persone ti spezzano il cuore e tu non puoi fare nulla”. La
ragazza ha affermato: “Nessuno ha il diritto di filmare altre persone,
sfruttarle, sessualizzarle e trarne profitto senza il loro permesso”.
Intanto, la vendita degli occhiali smart cresce di anno in anno. Secondo
EssilorLuxottica, produttore degli smart glasses in collaborazione con Meta, tra
ottobre 2023 e febbraio 2025 sono stati venduti oltre 2 milioni di paia.
L’azienda guidata da Mark Zuckerberg ha sottolineato che una spia rossa
sull’occhiale segnala quando sta registrando. Tuttavia, come dimostrato dalla
Bbc, la luce può essere facilmente coperta o completamente disattivata.
GLI INSULTI
Dilara e Kim hanno raccontato all’emittente britannica gli insulti ricevuti. La
prima donna ha raccontato di aver ricevuto centinaia di chiamate e di aver
risposto a una di essere. Dall’altra parte del telefono un uomo le ha detto: “Ti
rendi conto di quanto sei stupida? Te ne sei pentita? Ti rendi conto di quanto
ti ha resa facile da conquistare?”.
Kim ha raccontato di aver scoperto di essere stata ripresa senza il suo consenso
tramite una telefonata di suo figlio alle 5 del mattino. Il ragazzo aveva
ricevuto alcuni messaggi dagli amici in cui gli dicevano che la mamma era andata
virale su Tiktok. La donna ha raccontato di aver ricevuto messaggi come “Dimmi
quanto vuoi per vedere il tuo corpo nudo” o “Hai un account OnlyFans?”. La
vittima ha concluso la sua intervista dicendo: “Mi hanno filmato e umiliata. Ero
solo una merce, un pezzo di carne”
L'articolo “Mi hanno filmato e umiliata. Ero solo un pezzo di carne”: il
racconto choc alla BBC di due donne, filmate senza il loro consenso con gli
occhiali smart proviene da Il Fatto Quotidiano.
L’ultimo aggiornamento di Tiktok preoccupa gli utenti. L’applicazione ha rivisto
i termini di utilizzo e l’informativa sulla privacy, suscitando dubbi sulla
protezione dei dati. Le autorità statunitensi hanno puntato il dito contro la
società madre cinese ByteDance.
Nel nuovo testo, Tiktok ha chiarito in maniera più esplicita quali informazioni
possono essere raccolte dal sistema e come possono essere utilizzate. Tra questi
rientrano anche categorie considerate sensibili, come l’identità di genere,
l’orientamento sessuale e la fede religiosa. È bene sottolineare che tali
informazioni potrebbero essere raccolte dal social network solo qualora l’utente
decida di comunicarle volontariamente.
Tra le novità di Tiktok c’è anche il ruolo dell’intelligenza artificiale. Il
social ha introdotto regole stringenti sull’uso di strumenti di Ai e sulla
segnalazione obbligatoria di contenuti video generati con l’intelligenza
artificiale. Tuttavia, la maggiore trasparenza di Tiktok non è bastata per
placare le critiche.
Come riportato da Il Messaggero, in numerosi forum statunitensi le persone hanno
espresso la loro preoccupazione per la raccolta dati sempre più invasiva
dell’app. Infatti, per utilizzare il social è necessario accettare i termini e
le condizioni e, dunque, permettere a Tiktok di raccogliere e utilizzare dati
sensibili. Per proteggersi da una possibile fuga di dati, molti utenti stanno
disinstallando l’applicazione.
L'articolo Fuga degli utenti dopo l’ultimo aggiornamento di TikTok?
L’applicazione potrà raccogliere dati sensibili come l’orientamento sessuale e
la fede religiosa proviene da Il Fatto Quotidiano.
Il caso del fact checking al video di Alessandro Barbero in cui il professore
spiega i motivi del suo No e che ha generato il suo oscuramento sui social di
Meta, ha riportato una luce un grosso paradosso: se Barbero viene sottoposto –
discrezionalmente – ad analisi dei fatti perché il contenuto stava diventando
troppo virale, condiviso da centinaia di migliaia di persone e pagine, lo stesso
non può essere fatto per gli esponenti politici.
LE RESTRIZIONI
Secondo le regole di Meta sul fact checking, infatti, “i discorsi diretti dei
personaggi politici (comprese le inserzioni)” non sono idonei “all’analisi da
parte dei partner di fact-checking indipendenti”. Meta sostiene che gli elettori
debbano poter vedere direttamente cosa dicono i loro rappresentanti e valutarlo
autonomamente, senza interventi editoriali dell’azienda.
CONTENUTI RADIOATTIVI
Matteo Salvini o Giorgia Meloni o anche Elly Schlein potrebbero sostenere il Sì
o il No con le stesse argomentazioni di Barbero o con argomentazioni
completamente false senza essere sottoposti allo scanner del fact checking e i
loro contenuti sarebbero liberi di circolare senza restrizione alcuna, a
esclusione di alcune circostanze: “In alcuni casi – spiega infatti Meta – la
valutazione dei nostri partner di fact-checking avrà un effetto sui personaggi
politici. Se un personaggio politico condivide un contenuto creato da terzi (ad
es. un link a un articolo, una foto o un video che è già stato smentito su
Facebook e Instagram), mettiamo in secondo piano il contenuto, mostriamo un
avviso e rifiutiamo di includerlo nelle inserzioni”. Dunque, una volta
“etichettato” il contenuto diventa radioattivo per un politico che volesse
ricondividerlo.
I FACT CECKERS
La decisione è stata presa dalla piattaforma nel 2019 dopo anni complicati per
l’azienda: dopo le elezioni presidenziali statunitensi del 2016 e il caso
Cambridge Analytica, Facebook viene accusata di aver facilitato disinformazione
politica e di operare come un editore senza assumersene le responsabilità.
Invece di introdurre totale libertà d’espressione, tra il 2017 e il 2018
introduce il programma di fact-checking di terze parti: le analisi sono affidate
a organizzazioni terze (come Open per l’Italia), certificate da altre
organizzazioni terze e indipendenti. Vengono forniti strumenti per segnalare e
anche per fare ricorsi. L’obiettivo è tracciare e rimuovere i contenuti (e le
reti) di disinformazione. Al tempo stesso, Meta si impegna in una maggiore
trasparenza sulla pubblicità e le inserzioni (quindi a pagamento) politiche.
L’ESCLUSIONE DEI POLITICI
A inizio dello scorso anno Mark Zuckerberg pareva voler ridurre il sistema di
controllo (con la contrarietà di Bruxelles e delle norme dei suoi regolamenti)
ma non è ancora arrivata nessuna decisione definitiva. Nel 2019, tuttavia,
l’azienda per evitare che le etichette dei fact checker fossero lette come una
presa di posizione politica, e di essere accusata di interferenza elettorale, ha
deciso di escludere dai fact checking i leader politici e le loro dichiarazioni
indipendentemente, nel loro caso, da quanto siano virali i contenuti. Viralità
che, oltretutto, non è misurabile in dati oggettivi.
UN PROBLEMA DI PLURALISMO
Sul caso Barbero, intanto, senatori dem hanno depositato una interrogazione al
governo: “Nei giorni scorsi la piattaforma Facebook ha ridotto la visibilità di
un video di rilevanza pubblica – si legge – e tale limitazione sarebbe stata
disposta a seguito di un intervento di fact-checking che ha etichettato il
contenuto come “falso” o “fuorviante”, con conseguente penalizzazione
algoritmica della sua diffusione, proprio mentre il video risultava ampiamente
condiviso e discusso”. La riduzione della visibilità di un contenuto politico o
di interesse civico, specie in una fase referendaria – scrivono Francesco Boccia
e Antonio Nicita, rispettivamente presidente e vicepresidente del gruppo Pd al
Senato – “produce effetti sostanzialmente assimilabili a una limitazione del
pluralismo informativo e del libero confronto democratico” e che “decisioni di
questo tipo, assunte unilateralmente da soggetti privati che controllano
piattaforme digitali di dimensione sistemica, pongono un problema di
trasparenza, proporzionalità e garanzie procedurali, anche alla luce degli
obblighi previsti dal diritto europeo in materia di servizi digitali”. I
senatori sottolineano la poca chiarezza dei criteri adottati e degli strumenti
di ricorso tempestivo messi a disposizione dell’autore e degli utenti. Chiedono
quindi al Governo se “ritenga compatibile con i principi democratici che una
piattaforma privata possa incidere in modo così significativo sulla circolazione
di contenuti politici durante una campagna referendaria” e quali “iniziative
intenda assumere, anche attraverso le autorità competenti nazionali ed europee,
per verificare il rispetto degli obblighi di trasparenza, motivazione e
proporzionalità previsti dalla normativa europea sui servizi digitali” anche
promuovendo regole più stringenti a tutela del pluralismo informativo.
L'articolo “Censura social a Barbero sul referendum, il governo cosa intende
fare?”: l’interrogazione a Meloni. Ecco perché le regole di Meta non valgono per
i politici proviene da Il Fatto Quotidiano.
Si apre una nuova era per WhatsApp. Meta ha rivelato i dettagli del piano per
integrare a WhatsApp i messaggi provenienti da terze parti. L’app ha introdotto
la novità per adeguarsi alle richieste del Digital Markets Act dell’Ue. In che
cosa consiste questa frontiera della messaggistica? Il sistema progettato
dall’azienda di Mark Zuckerberg consentirà agli utenti di ricevere messaggi da
applicazioni esterne collegate a WhatsApp. È bene sottolineare che non sarà
obbligatorio attivare questa funzionalità per poter continuare a usufruire
dell’app.
Per esplorare la chat di terzi basta cliccare sul menu delle impostazioni e
proseguire selezionando, in ordine: “Account” > “Chat di terzi” > “Attiva” >
“Continua”. Una volta completata questa prassi si selezionano le app esterne da
cui si desidera ricevere i messaggi.
Come riportato dal Corriere della Sera, ad oggi esiste solo un’applicazione che
si può collegare a WhatsApp per sperimentare la nuova frontiera della
messaggistica: BirdyChat. Sviluppata da un software house lettone di nome Fyello
Productivity, BirdyChat conta una sola recensione su App Store e circa 5 mila
download su Google Play.
LA QUESTIONE PRIVACY
La nuova frontiera consentirà di inviare messaggi di testo, foto, video e
documenti da un’app all’altra. Tuttavia, resta il dubbio sulla tutela della
privacy. WhatsApp, infatti, informa gli utenti che le app che si collegano per
la chat di terzi “hanno le proprie normative e potrebbero gestire i dati in modo
diverso“.
Dunque, quanto è sicura questa nuova modalità? Al momento, la percentuale di
tutela della privacy è alta, ma non raggiuge il 100%. Meta ha dichiarato che
richiederà alle altre app di messaggistica di utilizzare il protocollo Signal
per garantire la crittografia end-to-end di tutte le comunicazioni. Molte
applicazioni, tra cui WhatsApp, adottano già tale tipologia di crittografia per
assicurare che la privacy degli utenti non venga compromessa.
L'articolo La nuova era di WhatsApp: apre ai messaggi delle app esterne. Come
iniziare a chattare con gli utenti di altre piattaforme e quali sono i rischi
per la privacy proviene da Il Fatto Quotidiano.
L’Antitrust ha imposto a Meta la sospensione delle condizioni che escludono
Chatbot AI concorrenti da WhatsApp. La misura cautelare è stata adottata
nell’ambito dell’istruttoria avviata a luglio 2025 per presunto abuso di
posizione dominante, dopo che il gruppo fondato da Mark Zuckerberg ha integrato
il servizio Meta AI nell’app di messaggistica WhatsApp “in posizione preminente
rispetto ai servizi dei concorrenti”.
Il procedimento è stato ampliato il 25 novembre scorso, con contestuale avvio
del sub-procedimento cautelare in merito all’applicazione delle nuove condizioni
contrattuali previste dai WhatsApp Business Solution Terms, che escludono del
tutto dalla piattaforma WhatsApp le imprese concorrenti di Meta AI nel mercato
dei servizi di Chatbot AI.
Sentite le parti, l’Autorità ha ritenuto che sussistano i requisiti necessari
per l’adozione della misura cautelare in relazione agli effetti della condotta
sul territorio italiano. In pratica il comportamento della società californiana
rischia di limitare la produzione, gli sbocchi o lo sviluppo tecnico nel mercato
dei servizi di Chatbot AI, a danno dei consumatori. Inoltre, può arrecare “un
danno grave e irreparabile, durante il tempo necessario per lo svolgimento
dell’istruttoria, alle dinamiche competitive nel mercato interessato”,
pregiudicandone la contendibilità.
Per Meta “la decisione dell’Autorità Garante della Concorrenza e del Mercato è
infondata. L’emergere di chatbot di intelligenza artificiale sulle nostre
Business API ha messo sotto pressione i nostri sistemi, che non erano stati
progettati per supportare questo tipo di utilizzo. L’Autorità italiana parte dal
presupposto che WhatsApp sia, in qualche modo, un app store di fatto. I canali
di accesso al mercato per le aziende di IA sono gli app store, i loro siti web e
le partnership di settore, non la piattaforma WhatsApp Business. Faremo
ricorso“, fa sapere.
L'articolo L’Antitrust: Meta smetta di escludere da WhatsApp i chatbot AI
concorrenti. Il gruppo annuncia ricorso proviene da Il Fatto Quotidiano.
Il colosso dei social media Meta, proprietario di Facebook e Instagram, è finito
al centro di nuove e pesanti accuse. Documenti giudiziari desecretati,
depositati nell’ambito di una class action intentata da distretti scolastici
statunitensi, sostengono che l’azienda avrebbe soppresso prove “causali” interne
che dimostravano il danno dei suoi prodotti sulla salute mentale degli utenti,
in particolare adolescenti. Il cuore delle accuse, secondo quanto riportato
dalla Reuters, ruoterebbe attorno a ricerche interne condotte da Meta stessa.
Secondo i documenti, questi studi avrebbero identificato un legame causale tra
l’uso dei prodotti dell’azienda e gli effetti negativi sulla psiche degli
utilizzatori. Un esempio citato è un’indagine che avrebbe rilevato come le
persone che interrompevano l’uso di Facebook per una settimana riportassero
livelli inferiori di depressione, ansia, solitudine e confronto sociale. Dinanzi
a questi risultati, anziché pubblicarli o proseguire gli approfondimenti, i
querelanti sostengono che Meta avrebbe interrotto le ricerche e liquidato i
risultati negativi attribuendoli alla “narrativa mediatica esistente”
sull’azienda.
LE ACCUSE
L’accusa più grave è che, pur essendo a conoscenza di un legame causale, Meta
avrebbe continuato a negare la sua capacità di quantificare il danno, arrivando
a dichiarare al Congresso di non poter stabilire se i suoi prodotti fossero
dannosi per gli adolescenti. Le accuse non finiscono qui. I querelanti,
rappresentati dallo studio legale Motley Rice, affermano che Meta e altre
piattaforme come Google, Tiktok e Snapchat avrebbero incoraggiato tacitamente
l’uso dei social media da parte di minori di 13 anni; che avrebbero progettato
intenzionalmente funzionalità di sicurezza per i giovani in modo da renderle
inefficaci o poco utilizzate, e che avrebbero anteposto la crescita del business
alla sicurezza e al benessere dei loro utenti più giovani, bloccando persino i
test sulle safety features temendo che potessero rallentare l’espansione.
L’uso del termine “causale” da parte di Meta nei suoi stessi documenti è un
elemento cruciale. Non si tratterebbe, infatti, di una semplice correlazione
(cioè, un aumento dell’uso dei social insieme a un aumento della depressione),
ma di una prova che un elemento ne provoca direttamente un altro. Questa
distinzione rafforza notevolmente la posizione legale dei distretti scolastici,
che chiedono un risarcimento per i costi sostenuti nel gestire l’impatto sulla
salute mentale degli studenti.
IL CAMPANELLO D’ALLARME DA SCUOLE E GENITORI
Le scuole e i genitori lamentano che l’aumento dell’ansia, della depressione e
delle difficoltà comportamentali tra gli adolescenti abbia radici dirette
nell’uso intensivo delle piattaforme, costringendo il personale scolastico a
farsi carico di questioni che vanno oltre il loro mandato educativo. Meta, in
risposta a precedenti indagini e denunce, ha sempre ribadito il suo impegno per
la sicurezza, sottolineando di investire risorse significative per la protezione
dei giovani e fornendo strumenti di controllo agli utenti. Tuttavia,
l’opposizione dell’azienda alla desecretazione dei documenti interni e il tenore
delle accuse attuali sollevano seri dubbi sulla trasparenza.
Questo non è il primo “scandalo documenti” per Meta. Il caso ricorda da vicino
le rivelazioni del 2021 dell’informatrice Frances Haugen, che portò alla luce
ricerche interne su come Instagram danneggiasse l’immagine corporea delle
ragazze adolescenti. La battaglia legale è solo all’inizio, ma le nuove accuse
spingono Meta in una posizione estremamente scomoda, costringendola a un
confronto diretto tra le sue ambizioni di crescita e la salute di miliardi di
persone che utilizzano i suoi prodotti.
L'articolo Class action delle scuole Usa contro Meta, l’accusa: “Nascosti studi
che identificano un legame causale tra l’uso dei prodotti dell’azienda e gli
effetti negativi sulla psiche” proviene da Il Fatto Quotidiano.
L’IA muove cifre da bilancio statale: nel 2024 l’industria ha investito 500
miliardi di dollari in data center. Quest’anno “solamente” Microsoft prevede di
spenderne 80. E Bloomberg conta sedici nuovi miliardari legati al segmento
infrastrutturale della filiera. In concreto, un data center è un enorme edificio
in cui vengono stipati migliaia di computer. Ciascun server esegue miliardi di
calcoli al secondo, alimentando i grandi modelli linguistici (come Chat GPT): è
il motore della rivoluzione industriale in corso.
I governi di tutto il mondo dispensano incentivi e sgravi fiscali per attrarre
hyperscaler – i grandi gestori – e impiantare “gigafactory” nel territorio:
l’obiettivo è tenere il passo con l’innovazione, per non essere tagliati fuori
dalla corsa all’IA. Tra gli effetti benefici attesi, la creazione di posti di
lavoro e il rilancio di aree economicamente depresse. Le aziende che vincono le
commesse pubbliche accumulano fondi, gonfiando i listini di borsa. Mentre gli
investitori più avveduti, che hanno fiutato l’affare prima degli altri, si
fregano le mani. Bolle e cataclismi finanziari a parte, beninteso.
Ma dove i governi centrali scorgono opportunità – dando credito alle promesse di
Big Tech – le comunità locali ravvisano pericoli. I data center consumano acqua,
suolo ed energia; generano inquinamento sonoro e luminoso; sovraccaricano la
rete elettrica. Negli USA, l’avanguardia della quarta rivoluzione industriale,
sta montando la rivolta contro l’industria tecnologica. Da Nord a Sud, dalle
coste alle aree interne, prende forma e si consolida un movimento che affonda le
radici nelle comunità locali, nei sobborghi e nelle città di provincia ma ormai,
viste le dimensioni e la pressione che è in grado di esercitare, ha assunto
portata nazionale. Negli ultimi due anni il fronte “anti data-center” ha
bloccato o rinviato gare, bandi e mega-progetti; in ballo ci sono 64 miliardi di
dollari.
Il “Data Center Watch” ha messo in fila i numeri. E danno la misura del
fenomeno: l’ondata di proteste lambisce 24 Stati, per un totale di 142
organizzazioni impegnate nelle campagne contro queste infrastrutture –
sponsorizzate da Amazon, Google, Meta e altri colossi. Verosimilmente la
Virginia (che è il più grande hub di data center al mondo) ne costituisce
l’epicentro: soltanto in questo stato l’osservatorio segnala 42 associazioni. Di
frequente si tratta di gruppi che si sviluppano dal basso in maniera spontanea,
coagulandosi attorno a singole iniziative (mailing list, pagine Facebook
dedicate, petizioni online). Talvolta, la fronda è guidata da capitoli locali di
organizzazioni preesistenti e più strutturate, che si articolano su scala
federale.
Nel movimento sono confluite istanze di destra e di sinistra, suggellando un
“raro allineamento bipartisan nella politica infrastrutturale” che ha diffuso
preoccupazione nei corridoi della West Wing. Anche perché la partita si gioca
sul piano locale, nel sottobosco della burocrazia statale; se le municipalità si
mettono di traverso, su pressione della cittadinanza, i progetti – vincolati ad
autorizzazioni comunali o licenze – rischiano di saltare. “Da un’analisi delle
dichiarazioni pubbliche rilasciate dai funzionari eletti nei distretti che
stanno valutando data center”, si legge nel report, “è emerso che il 55% dei
politici che hanno preso posizione pubblicamente contro tali progetti erano
repubblicani, mentre il 45% erano democratici”. A Goodyear e Buckeye (Arizona) i
residenti hanno bloccato un investimento da 14 miliardi. Le autorità locali di
Peculiar (Missouri) hanno approvato un’ordinanza che rimuove i data center dalle
destinazioni d’uso consentite, stroncando un’iniziativa da 1,5 miliardi. Poi
ancora Chesterton (Indiana), 1,3 miliardi, Richmond (Virginia), 500 milioni. Il
bilancio finale fà impressione: progetti per 18 miliardi cancellati (e per 46
congelati).
Per militanti e cittadini di osservanza democratica la questione ambientale è in
cima alle priorità. In base alle proiezioni dell’International Energy Agency
entro il 2030 i data center assorbiranno metà della crescita della domanda di
elettricità negli USA. L’energia, intuitivamente, alimenta la potenza di
calcolo. Non solo; i server, infatti, lavorano senza sosta: per mantenere simili
ritmi ed evitare guasti è necessario raffreddarli a cadenza regolare.
A tale scopo gli impianti sparano aria condizionata industriale ad altissima
potenza e drenano grandi volumi d’acqua dalle riserve idriche locali. Le
associazioni ambientaliste catalogano altre esternalità negative come
l’occupazione di suolo agricolo e la produzione di rifiuti elettronici. Ma il
tema solleva preoccupazioni trasversali, a cominciare dai rialzi in bolletta:
all’aumentare del fabbisogno di elettricità dell’area, difatti, crescono i
prezzi per famiglie e imprese della zona.
I movimenti “nimby” (not in my back yard) non sono un fenomeno nuovo; questa
etichetta inquadra le manifestazioni locali contro le grandi infrastrutture
(come discariche o inceneritori). Ma gli USA, dove questa rivoluzione è ad uno
stato avanzato, prefigurano fenomeni di protesta che, con l’avanzare
dell’innovazione, potrebbero comparire anche in altre aree del pianeta (inclusa
l’UE). Condizionando l’elezione e la carriera di politici, cacicchi e funzionari
locali.
L'articolo Stati Uniti, il fronte anti data-center mette i bastoni tra le ruote
di Big Tech: bloccati progetti per 18 miliardi di dollari proviene da Il Fatto
Quotidiano.
La Commissione europea sta pianificando una nuova indagine antitrust sugli
strumenti di funzionalità di intelligenza artificiale di Meta su Whatsapp. Lo
riporta il Financial Times, secondo cui l’indagine verterebbe su come il colosso
tech abbia integrato il suo sistema Meta AI nel suo servizio di messaggistica
all’inizio dell’anno, scrive il quotidiano citando due funzionari.
L’avvio dell’indagine dovrebbe essere annunciato nei prossimi giorni, anche se i
tempi potrebbero ancora variare. Nel mercato europeo infatti Meta AI – chatbot e
assistente virtuale – è stato integrato nell’interfaccia di WhatsApp a partire
da marzo 2025.
L’azienda ha riferito a Reuters di non aver ricevuto i dettagli dell’indagine e
ha fatto riferimento a una precedente dichiarazione di WhatsApp sull’inchiesta
avviata da parte delle autorità antitrust italiane, che ha definito “infondata”.
A luglio infatti l’Autorità garante della concorrenza e del mercato in Italia ha
avviato un’indagine nei confronti di Meta per presunto abuso di posizione
dominante con l’integrazione di uno strumento IA in WhatsApp. A novembre
l’analisi è stata ampliata per la verifica di abuso di posizione dominante nel
mercato dei servizi di AI chatbot nella piattaforma di messaggistica.
Il Financial Times riferisce inoltre che l’indagine sarà condotta in base alle
norme antitrust tradizionali anziché fare riferimento al Digital Markets Act,
legislazione di riferimento dell’Unione Europea criticata da Donald Trump e
attualmente impiegata per monitorare i servizi cloud di Amazon e Microsoft al
fine di applicare eventuali restrizioni.
“Il recente aggiornamento non influisce sulle decine di migliaia di aziende che
forniscono assistenza clienti e inviano aggiornamenti pertinenti, né sulle
aziende che utilizzano l’assistente IA di loro scelta per comunicare con i
propri clienti”, ha dichiarato Meta.
Il Ceo di Meta, Mark Zuckerberg, ha fatto pressioni sull’amministrazione Trump
contro quelle che l’azienda considera regolamentazioni europee troppo onerose,
che secondo Meta rischiano di far rimanere il blocco europeo indietro rispetto a
Stati Uniti e Cina nella corsa all’IA.
Sia il presidente Donald Trump sia il vicepresidente JD Vance si sono espressi
contro le norme che prendono di mira le Big Tech americane dopo vari incontri
con Zuckerberg. Intanto lo scorso mese, il segretario al commercio degli Stati
Uniti, Howard Lutnick, ha dichiarato durante una visita a Bruxelles che l’Ue
deve allentare la sua regolamentazione in campo tecnologico.
L'articolo Financial Times: “L’Ue prepara indagine antitrust su Meta AI
integrata in Whatsapp” proviene da Il Fatto Quotidiano.
È di abuso di posizione dominante l’accusa nei confronti di Meta da parte
dell’Antitrust, che ha avviato un procedimento cautelare ai danni della
multinazionale. Al centro dell’attenzione le nuove condizioni contrattuali,
introdotte il 15 ottobre scorso dalle nuove condizioni d’uso WhatsApp Business
Solution Terms, oltre all’integrazione di nuove funzioni Meta Ai. Secondo
l’Autorità queste introduzioni potrebbero limitare gli altri servizi AI Chatbot,
e sarebbe una violazione delle leggi europee in materia. Le condizioni
all’interno del nuovo contratto escludono dalla piattaforma WhatsApp tutte le
imprese concorrenti di Meta Ai nel mercato dei servizi AI Chatbot, i sistemi di
chat informatici con cui conversiamo ormai quasi giornalmente.
Nella nota dell’Antitrust si legge che “questa modifica delle condizioni
contrattuali è suscettibile di limitare la produzione, gli sbocchi o lo sviluppo
tecnico nel mercato dei servizi di AI Chatbot, a danno dei consumatori, e
costituisce una possibile violazione dell’articolo 102 TFUE. Inoltre, l’Autorità
ritiene che tale violazione della normativa sulla concorrenza da parte di Meta
possa pregiudicare, in modo grave e irreparabile, la contendibilità del mercato,
a causa della scarsa propensione dei consumatori a cambiare le abitudini che
ostacola il passaggio a servizi concorrenti”. L’Autorità si è anche riservata il
diritto di adottare eventuali misure cautelari ex art. 14-bis della legge n.
287/1990.
Il procedimento è stato avviato nei confronti di Meta Platforms Inc., Meta
Platforms Ireland Limited, WhatsApp Ireland Limited e Facebook Italy S.r.l.,
indicate complessivamente come Meta. “Respingiamo con forza queste accuse
infondate. L’API di WhatsApp non è stata progettata per essere utilizzata con
chatbot di intelligenza artificiale e farlo comporterebbe un grave sovraccarico
dei nostri sistemi. Il recente aggiornamento non ha alcun impatto sulle decine
di migliaia di aziende che forniscono assistenza ai clienti e inviano
comunicazioni rilevanti, né sulle aziende che utilizzano l’assistente AI che
preferiscono per conversare con la propria clientela”.
Per il Codacons è invece positiva la decisione dell’Antitrust. L’associazione
aveva presentato a marzo un esposto che, come si legge nella loro dichiarazione,
avrebbe portato a luglio l’apertura di un procedimento da parte delle Autorità.
“E su Meta – ricorda ancora il Codacons – incombe ora anche un altro rischio: lo
scorso 14 novembre è stato discusso dinanzi al Tribunale di Roma il ricorso
inibitorio promosso assieme ad Adusbef e Assourt e teso ad impedire l’accesso
dei minori a Instagram. Se il tribunale accoglierà l’azione legale, Meta dovrà
correre ai ripari bloccando centinaia di migliaia di profili in Italia”.
L'articolo “Abuso di posizione dominante”, l’Antitrust indaga su Meta. Sotto
accusa i chatbot di intelligenza artificiale proviene da Il Fatto Quotidiano.