Massimiliano Montulli | La cybersecurity diventerà una guerra tra macchine
22375
post-template-default,single,single-post,postid-22375,single-format-standard,qode-social-login-1.0,qode-restaurant-1.0,ajax_fade,page_not_loaded,,vertical_menu_enabled,qode-title-hidden,qode-theme-ver-13.5,qode-theme-bridge,disabled_footer_bottom,wpb-js-composer js-comp-ver-5.4.5,vc_responsive

La cybersecurity diventerà una guerra tra macchine

La cybersecurity diventerà una guerra tra macchine. E non potrebbe essere diversamente. L’intelligenza artificiale cambia le regole dell’informatica e rende automatiche attività che prima erano manuali sia per gli aggressori che per le loro vittime. In particolare, spiegano in un rapporto di ricerca appena pubblicato i ricercatori di OpenAI, l’associazione non profit voluta dai big della Silicon Valley (tra i quali Elon Musk) per studiare i rischi e le opportunità delle Ai, l’intelligenza artificiale è una vera e propria sfida globale alla sicurezza. Riduce i costi degli attacchi esistenti, permette attacchi prima sconosciuti e rende più difficile capire chi sia l’attaccante.

L’Ai è uno strumento e come tale ha una natura duplice: buono o cattivo, a seconda di come si usa. Scrivono gli autori del rapporto: «Gli strumenti di sorveglianza possono essere utilizzati per catturare i terroristi o per opprimere i cittadini comuni. I filtri dei contenuti potrebbero essere usati per seppellire notizie false o per manipolare l’opinione pubblica. Governi e attori privati avranno accesso a molti di questi strumenti e potrebbero usarli per il bene pubblico o per i loro interessi».

Per la cybersecurity un ruolo determinante

L’unica certezza relativa all’intelligenza artificiale nel campo della security è che avrà un ruolo determinante. Come scrisse Cechov, «se nella prima scena del dramma c’è un fucile appeso alla parete, questo dovrà sparare nell’ultimo atto». «L’intelligenza artificiale – dice Gil Shwed, fondatore dell’israeliana Check Point, una delle più importanti multinazionali della security al mondo – è inevitabile. Dato che le Ai esistono, non ha senso non utilizzarle. E chi le usa, vince. Per questo alla fine la cybersecurity sarà una guerra tra macchine».

Lo scrittore Arthur C. Clarke (quello di “2001 Odissea nello Spazio“, ma anche l’inventore dei satelliti artificiali) diceva: «Ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia». L’intelligenza artificiale sembra in effetti più una magia che una tecnologia. Ma non lo è. I ricercatori creano algoritmi per classificare le informazioni e poi li applicano a particolari ambiti: riconoscimento dei volti, capacità di guidare su una strada, di vedere un modello di comportamento in una mole sovrumana di dati. La “magia” sta nel fatto che i criteri con cui i sistemi ordinano e classificano le informazioni non sono dichiarati prima in modo esplicito, ma vengono ricavati in modo automatico con milioni di iterazioni, l’”addestramento”, che rendono alcune istanze delle Ai capaci di eseguire specifici compiti: ottimizzare il flusso della merce in un centro di logistica o giocare una partita a Go.

«Nella cybersecurity – dice Shwed – le Ai saranno come cani da guardia, un ausilio ma autonomo». Oggi il problema non sono più i virus: antivirus, firewall e sistemi anti-intrusione bastano e avanzano. Il problema sono gli attacchi più sofisticati che, utilizzando codice che cambia sempre forma, ne rendono impossibile l’identificazione a priori perché i software di protezione attuali non sono autonomi. Non sanno cioè valutare il comportamento di una applicazione all’interno di un sistema, ma devono basarsi su una tassonomia preesistente.

Qui invece l’intelligenza artificiale fa la differenza su entrambi i fronti. Chi deve difendersi riesce a vedere i modelli di comportamento con l’aiuto di Ai capaci di analizzare da sole moli enormi di dati. Gli aggressori identificano debolezze e gestiscono attacchi su scala molto più ampia, automatizzandoli in maniera prima impensabile. Questo è reso possibile anche dalla pratica sempre più diffusa della collaborazione tra “cattivi”. In rete c’è un mercato illegale di risorse e informazioni per effettuare attacchi digitali. Pezzi di conoscenza vengono venduti, altri condivisi, altri trafugati oppure volontariamente diffusi per evitare di essere localizzati. È un contesto altamente collaborativo e più efficiente di quanto oggi non sia il mercato dei “buoni”. Il futuro è legato alla comprensione di un passaggio: vince chi ha più informazioni, chi collabora di più. Vincono cioè gli open data, non i sistemi chiusi, perché maggiore la quantità di informazioni che circolano tra i “buoni”, più efficienti i sistemi di Ai. Il futuro della cybersecurity passa da qui.

Fonte: Antonio Dini – Il Sole 24 Ore

Tags:
,