Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2025  aprile 10 Giovedì calendario

Intelligenza artificiale sotto accusa: cosa sono i "bot grigi" che raccolgono milioni di dati e rallentano internet

L’addestramento dell’intelligenza artificiale sta spingendo al limite la stabilità di internet. Secondo un nuovo report pubblicato da Barracuda Networks, azienda di Los Angeles specializzata in sicurezza informatica, il web è sempre più sotto pressione a causa dell’attività di programmi automatizzati che raccolgono dati per alimentare modelli di IA. L’obiettivo di questi software, noti come bot grigi, è lo scraping: l’estrazione massiccia di dati da siti e app. La loro velocità, però, sta mettendo a rischio la qualità del traffico online: un singolo bot, secondo gli analisti, è stato in grado di generare fino a 500mila richieste in un solo giorno verso un’unica app mobile.
Bot grigi: cosa sono i software di raccolta dati che rallentano la connessione
Questi software, noti come bot grigi, operano in una zona d’ombra tra i bot “buoni”, utilizzati ad esempio dai motori di ricerca, e quelli “maligni”, responsabili di truffe o violazioni informatiche.
Il loro obiettivo è raccogliere enormi quantità di dati – spesso sensibili, proprietari o commerciali – per addestrare i modelli di intelligenza artificiale senza causare danni diretti agli utenti, ma con un impatto significativo sull’infrastruttura della rete.
Il report segnala che tra dicembre 2024 e febbraio 2025, bot come ClaudeBot e Bytespider (collegato a TikTok) hanno generato picchi fino a 9,7 milioni di richieste mensili, mantenendo una media di 17.000 accessi all’ora per ogni sito o app analizzati. Un traffico così elevato può rallentare i servizi digitali, compromettendo le operazioni online e mettendo in difficoltà aziende e sviluppatori.
Scraping e sicurezza: dove si collocano i bot grigi?
Lo scraping, tecnica alla base di questi bot, non è di per sé illegale né dannosa. È infatti utilizzata anche da strumenti utili, come i motori di ricerca o i chatbot aziendali. Tuttavia, i bot grigi si muovono in una zona grigia non regolamentata, sfruttando le stesse tecnologie di intelligenza artificiale che contribuiscono ad addestrare. Non sono programmati per rubare dati come i bot maligni, ma la loro intensa attività può causare gravi problemi operativi. L’allarme lanciato da Barracuda Networks invita a monitorare con attenzione questi automatismi, evitando che l’evoluzione dell’IA comprometta la funzionalità stessa della rete in un contesto in cui la fame di dati delle non sembra destinata a diminuire.