Da Google al MIT si investe in machine learning per aumentare le difese contro le minacce informatiche
Google ha realizzato dei sistemi di apprendimento automatico in grado di creare i propri algoritmi crittografici, ultimo successo dell’intelligenza artificiale nel campo della cyber security.
Google Brain e le reti neurali che si parlano in linguaggio cifrato
Google Brain, unità che lavora su progetti sull’intelligenza artificiale con sede in California, avrebbe concretizzato un sistema per criptare i dati, basandosi – nello sviluppo tecnico del programma – sul modello delle reti neurali. Due dispositivi, chiamati Bob e Alice, spiega Singularity Hub, avevano il compito di scambiarsi dei messaggi e nasconderli, al contempo, a un terzo dispositivo, chiamato Eva. A nessuno dei tre è stato ‘spiegato’ come crittografare i messaggi, ma a Bob e ad Alice è stata consegnata una chiave di sicurezza condivisa a cui, invece, Eva non aveva accesso. La maggior parte dei test si è conclusa positivamente. I messaggi fra Bob e Alice sono infatti stati scambiati senza che Eva riuscisse a decifrarli.
I nuovi sistemi  – secondo TechCrunch – avrebbero curiosamente agito secondo dinamiche molto differenti da quelle abitualmente adottate dai sistemi crittografici elaborati dall’essere umano. Molto probabilmente, gli approcci delle macchine risulteranno molto meno accurati rispetto ai quelli degli esperti informatici e sono, in un certo senso, anche particolarmente complessi da cogliere, proprio per via del metodo poco chiaro usato dalle reti neurali per intervenire nei problemi.
Ciò, inevitabilmente, solleva secondo il New Scientist alcune domande su quanto potrebbe essere facile per gli esseri umani violare una crittografia generata dai computer e, dunque, sulle garanzie di sicurezza del sistema. Le prestazioni di Eva, inoltre, sembrerebbero confermare i sospetti avanzati da alcuni esperti sull’uso delle tecnologie basate sulle reti neurali, secondo i quali lascerebbero ampie falle nei sistemi di encryption.
Secondo i ricercatori, però, l’uso delle reti neurali potrebbe rivelarsi particolarmente efficace sia per la comprensione dei metadati comunicativi sia per l’analisi del traffico delle reti informatiche. Sarebbe dunque questo il settore in cui, a detta degli esperti, il machine learning potrebbe fornire un prezioso contributo alla sicurezza informatica, soprattutto in relazione alla capacità dell’intelligenza artificiale di elaborare molti più dati rispetto ad altri metodi. Si sottolinea, inoltre, come i deficit di sicurezza informatica potrebbero garantire all’intelligenza artificiale ampie fette di mercato, ad esempio con software anti-virus che utilizzano un insieme di tecnologie AI per apprendere costantemente nuovi comportamenti dei malware, riconoscendone così i mutamenti adottati per aggirare i sistemi di controllo.
L’intelligenza artificiale ha bisogno degli esseri umani?
Secondo TechCrunch, però, l’apprendimento automatico tenderebbe ancora a generare troppi falsi positivi, per tale ragione gli ultimi approcci si starebbero concentrando su come favorire forme di collaborazione fra l’intelligenza artificiale e gli esseri umani.
Sia la finlandese F-Secure sia il MIT Computer Science and Artificial Intelligence Lab avrebbero difatti sviluppato sistemi di apprendimento automatico di cyber triage. La tecnologia si baserebbe sul filtraggio della maggior parte delle informazioni che passano attraverso una rete, riducendo così drasticamente il numero di potenziali minacce con cui gli umani dovrebbero avere a che fare.
IBM vorrebbe poi compiere un passo ulteriore e sfruttare le capacità di elaborazione del linguaggio naturale del ‘suo’ Watson (sistema di intelligenza artificiale in grado di rispondere a domande espresse in un linguaggio naturale) per realizzare un servizio di cloud entro la fine dell’anno e fornire un ‘assistente’ tecnologico esperto.
Cyber Grand Challenge
Ad agosto, la Darpa – l’agenzia governativa del Dipartimento della Difesa degli Stati Uniti (DoD) incaricata dello sviluppo di nuove tecnologie per uso militare – ha tenuto la prima edizione del Cyber Grand Challenge – il primo concorso di hacking che ‘mette in competizione’ le apparecchiature tecnologiche. Questi dispositivi hanno utilizzato differenti approcci AI per rilevare in maniera automatica le vulnerabilità dei software. Lungi dall’essere perfetti, con alcuni dei macchinari rimasti inattivi per gran parte della competizione e uno che avrebbe persino messo ko la macchina che doveva proteggere, alcuni bot (fra cui Mayhem, che ha poi vinto e gareggiato anche contro gli esseri umani alla convention hacker Defcon, dove invece è arrivato ultimo) hanno svolto correttamente il proprio lavoro, sorprendendo molti degli esperti sia per il livello di sofisticazione sia per la velocità operativa che li caratterizzava.
La Electronic Frontier Foundation (EFF) avrebbe posto l’accento sulle gravi conseguenze che l’automazione del processo potrebbe generare, invitando a creare un codice di condotta condiviso per scongiurare questo tipo di pericoli. Se questi sistemi sfuggissero al controllo dei loro creatori, ha spiegato, non vi sarebbe alcuna garanzia di protezione.
Fonte: CyberAffairs