News6 min di letturaPubblicato il 2026-04-07

Project Glasswing: Anthropic e i big tech uniscono le forze per la sicurezza del software

Anthropic ha lanciato Project Glasswing con AWS, Google, Microsoft, Apple, Nvidia e altri big tech per proteggere il software critico mondiale con l'AI. Ecco cos'è, quanto si sta investendo e perché conta per le aziende.

In sintesi

Project Glasswing è l'iniziativa di Anthropic che coinvolge i maggiori player tecnologici mondiali per usare Claude nella ricerca di vulnerabilità nel software open source critico. 100 milioni di dollari in risorse, bug scoperti dopo 27 anni, e un segnale chiaro sulla velocità con cui l'AI sta cambiando le regole del gioco.

Un bug rimasto nascosto per 27 anni

OpenBSD è uno dei sistemi operativi più usati per infrastrutture critiche al mondo. È noto per la sua attenzione maniacale alla sicurezza. Decenni di revisioni manuali, migliaia di occhi esperti sul codice.

Claude ha trovato una vulnerabilità che era lì da 27 anni.

Nello stesso periodo ha identificato un bug in FFmpeg — libreria usata da miliardi di dispositivi per la gestione di video e audio — che aveva superato cinque milioni di test automatici senza essere rilevato. E una serie di vulnerabilità nel kernel Linux e in FreeBSD, inclusa una Remote Code Execution che permette di scrivere contenuto arbitrario sullo stack del sistema.

Questi non sono exploit costruiti in laboratorio. Sono falle in software che gira su server, smartphone, infrastrutture finanziarie, ospedali. Il fatto che siano stati trovati da un modello AI è un cambio di paradigma nella sicurezza informatica.

Cos'è Project Glasswing e perché è nato

Project Glasswing è l'iniziativa con cui Anthropic ha deciso di usare queste capacità in modo proattivo e collaborativo.

L'obiettivo è proteggere il software critico mondiale — quello su cui si reggono le infrastrutture digitali globali — usando Claude per trovare vulnerabilità prima che lo facciano attori malintenzionati.

L'idea di fondo è semplice: l'AI che rende possibile trovare queste vulnerabilità è la stessa AI che potrebbe essere usata per sfruttarle. Meglio usarla in difesa, in modo coordinato e trasparente, con i disclosure responsabili ai maintainer del software interessato.

Chi partecipa e quanto si sta investendo

La lista dei partner di Glasswing legge come un elenco dei principali player tecnologici mondiali: AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks.

Non si tratta di endorsement simbolici. I numeri impegnati sono concreti: 100 milioni di dollari in crediti AI messi a disposizione del progetto, 2.5 milioni alla Linux Foundation e all'Open Source Security Foundation, 1.5 milioni alla Apache Software Foundation.

Queste organizzazioni gestiscono il codice su cui si regge internet: il kernel Linux, Apache, decine di librerie fondamentali usate da quasi ogni applicazione software esistente. Portare l'AI in questo ecosistema è una decisione con effetti a cascata su tutto il software mondiale.

L'AI accelera più velocemente di quanto sembri. Sei pronto?

30 minuti per discutere il tuo caso specifico.

Prenota una call

Cosa ha trovato finora

Oltre ai casi già citati, le capacità dimostrate da Claude nell'ambito di Glasswing sono tecnicamente rilevanti. Buffer overflow, vulnerabilità use-after-free, heap corruption — le categorie di falle più pericolose nei sistemi moderni.

Quello che colpisce non è solo la capacità di trovare questi bug, ma di farlo su sistemi hardened con tutte le protezioni moderne attive: randomizzazione della memoria, protezione dello stack, enforcement della non-esecuzione dei dati.

Al momento della pubblicazione dei risultati, oltre il 99% delle vulnerabilità trovate era ancora aperto. Significa che per mesi — a volte anni — quelle falle erano lì, sfruttabili da chiunque le scoprisse per primo.

Perché Anthropic pubblica invece di tenere segreto

È una domanda legittima. Se hai un modello AI capace di trovare vulnerabilità nei sistemi più sicuri del mondo, perché annunciarlo pubblicamente?

La risposta di Anthropic è coerente con la sua filosofia: la trasparenza è più sicura del segreto. Le capacità esistono già — nasconderle non le elimina, le rende solo meno prevedibili. Renderle note permette all'industria di prepararsi e coordinare le difese.

C'è anche una considerazione pratica: un'AI che trova vulnerabilità può essere usata da chiunque abbia accesso a modelli sufficientemente avanzati. La strategia di Anthropic è scegliere la difesa proattiva invece dell'oscurità.

Il segnale per le aziende italiane

Project Glasswing non è rilevante solo per i team di sicurezza informatica. È un segnale sulla velocità con cui l'AI sta cambiando settori e processi che sembravano stabili.

Se l'AI è già in grado di fare questo nella sicurezza del software, cosa sta succedendo nelle analisi finanziarie, nella revisione legale, nell'automazione industriale? La risposta è: molto più di quanto la maggior parte delle aziende italiane stia considerando.

Il rischio non è tecnologico. È strategico. Chi inizia a capire come integrare questi strumenti oggi costruisce un vantaggio che si accumula nel tempo. Chi aspetta trova un divario sempre più difficile da colmare. Con Maverick AI aiutiamo le aziende a capire da dove partire e a misurare il ritorno fin dal primo progetto.

L'AI accelera più velocemente di quanto sembri. Sei pronto?

Maverick AI lavora con aziende nei settori PE, pharma, fashion, manifattura e consulting per implementare Claude. Se vuoi capire dove l'AI può portare valore nella tua azienda, prenota una call.

Prenota una call

Domande Frequenti

Project Glasswing è un'iniziativa di Anthropic che usa Claude per trovare vulnerabilità di sicurezza nel software open source critico mondiale. I partner includono AWS, Apple, Google, Microsoft, NVIDIA, Cisco, CrowdStrike, JPMorgan Chase, Linux Foundation e Palo Alto Networks. Il progetto ha messo a disposizione 100 milioni di dollari in risorse AI e donato 4 milioni a fondazioni open source.
Anthropic ha scelto la trasparenza per una ragione pratica: nascondere queste capacità non le elimina. Modelli AI avanzati vengono sviluppati anche da altri attori. Rendere pubbliche le capacità di Claude in ambito cybersecurity permette all'industria di prepararsi e coordinare le difese. È la logica del vulnerability disclosure responsabile applicata all'AI.
Non esattamente. Il punto di Glasswing non è che questi sistemi siano pericolosi, ma che le capacità di analisi dell'AI hanno superato quelle dell'analisi manuale su certi tipi di vulnerabilità. Trovare un bug non significa automaticamente poterlo sfruttare: la disclosure responsabile ai maintainer permette di correggere le falle prima che vengano usate da attori malintenzionati.
No. Il software open source che Glasswing contribuisce a proteggere è usato in quasi ogni settore: banche, ospedali, produzione industriale, infrastrutture pubbliche. Per le aziende italiane, il messaggio più rilevante è quello sulla velocità del progresso AI: se l'AI ha raggiunto queste capacità nella sicurezza software, sta succedendo qualcosa di simile in quasi ogni dominio.
Con lucidità, non con panico. Glasswing è un segnale sulla traiettoria dell'AI. La reazione sensata è iniziare a capire concretamente come l'AI può trasformare i processi della propria organizzazione. Maverick AI lavora con aziende italiane per identificare i casi d'uso più promettenti e avviare implementazioni concrete con Claude.

Vuoi saperne di più?

Contattaci per scoprire come possiamo aiutare la tua azienda con soluzioni AI su misura.

Implementation partner Anthropic in Italia. Lavoriamo con aziende in PE, pharma, fashion, manifattura e consulting.

Rimani informato sull'AI per il business

Ricevi aggiornamenti su Claude AI, casi d'uso aziendali e strategie di implementazione. Niente spam, solo contenuti utili.

Richiedi Informazioni
Project Glasswing: Anthropic, Google, Microsoft e AWS per la Sicurezza del Software | Maverick AI