Une IA contre les CyberAttaques

 

Le MIT entraîne une IA pour détecter des cyberattaques

Avenir de l'IT : Le MIT développe un outil de cybersécurité mêlant machine learning predictif et analyse humaine destiné à détecter les cyberattaques. L’Institut américain clame que cette approche lui a permis de réduire drastiquement les faux positifs.

Source : Logo zdnet

Le MIT présente un nouveau projet de recherche visant à conjuguer les efforts d’un analyste virtuel à ceux d’experts en cybersécurité pour mieux identifier les menaces visant les systèmes d’information. Développé par le CSAIL (Computer Science and Artificial Intelligence Labs), ce nouveau système se vante d’être en mesure de réduire largement le nombre de faux positifs générés par la plupart des systèmes automatisés en divisant le nombre de ceux-ci par cinq.

« Les outils de sécurité développés aujourd’hui tombent généralement dans deux catégories : celles fonctionnant grâce aux machines et celles fonctionnant grâce aux humains » explique le MIT dans son communiqué. Le principal problème des solutions s’appuyant sur l’expertise humaine est leur incapacité à détecter des attaques d’un type nouveau, tandis que les solutions automatisées génèrent un nombre non négligeable de faux positifs. Le MIT se propose de combiner ces deux mondes pour fournir une solution capable d’outrepasser ces limitations. Le système développé par le SCAIL est baptisé AI² et a été conçu en partenariat avec la startup PatternEx.

La chasse aux faux positifs

Le MIT explique qu’AI² est en mesure de détecter 85% des attaques, un chiffre tiré des tests effectués par le MIT sur des données factices. En l’état, AI² est capable d’analyser un important volume de logs systèmes (3,6 milliards dans les tests menés par le CSAIL) afin d’analyser les différents motifs à l’aide de technique de machine learning. Un « analyste virtuel » qui se chargera donc d’une première analyse des logs avant de les présenter à un analyste cette fois bien réel qui confirmera si oui ou non l’hypothèse présentée par AI² est bien une attaque. Ces données sont ensuite réinjectées vers l’intelligence artificielle, qui affinera ses prochaines sélections en s’appuyant sur les erreurs précédentes. Le MIT précise ainsi que le système dispose d’une large marge de progression : si les premiers jours, il est capable de proposer au moins 200 alertes par jour aux analystes, ce chiffre peut tomber à 30 ou 40 en l’espace de quelques jours.

La lutte contre les faux positifs est un enjeu de sécurité, comme l’explique Dave Palmer, directeur technique chez Darktrace : « les systèmes qui se basent uniquement sur l’utilisation de règles ou sur la définition de comportements types sont notoirement connus pour générer des faux positifs. Ce phénomène est principalement causé par la difficulté qu’implique le fait d’appliquer des règles de sécurité simple sur des réalités qui sont parfois complexes et impliquent des technologies et des activités parfois très diverses. En plus de cela, les attaquants savent que si les outils font remonter en permanence des alertes de sécurité, les analystes chargés d’y remédier seront d’autant plus surchargés et d’autant moins enclins à les ignorer, ce qui ouvre une fenêtre pour les attaquants. »

Grâce à son intelligence artificielle, le MIT pourrait donc avoir trouvé un début de réponse aux problèmes de faux positifs qui viennent limiter l’efficacité des outils d’automatisation. Tout du moins jusqu’à ce que les cybercriminels aient appris à manipuler les intelligences artificielles.

 

Page d'accueil

 

Page d'accueil

Aucune note. Soyez le premier à attribuer une note !