NEWS IT

Les Cybercriminels et l'ntelligence Aritificielle (IA)

Futur intelligence artificielle

Le machine learning nous aide à détecter les signes de cybermenaces qui, sans lui, passeraient inaperçus. Au final, les clients en sont les premiers gagnants. Alors que les machines poursuivent leur apprentissage, il en émerge une réelle intelligence artificielle (IA) qui, j’en suis convaincu, a  encore beaucoup à apporter à tous les autres acteurs de la sécurité. Serait-ce donc, comme beaucoup le pensent, la solution tant attendue pour détecter les violations de sécurité ? C’est bien possible. Néanmoins, une question évidente se pose : que se passera-t-il le jour où les cybercriminels utiliseront l’IA pour nous prendre à notre propre jeu ? Jusqu’à présent, nous avons pris soin d’éviter le sujet. Mais nous ne pourrons pas nous permettre ce luxe pendant très longtemps. Quand cette heure viendra, nous n’aurons alors fait que changer notre méthode d’engagement dans cette perpétuelle course à l’armement qu’est la cybersécurité. Des outils de deep learning multicouches aux algorithmes non-supervisés, le machine learning ne cesse de se développer. L’un de ses points forts réside notamment dans sa capacité à faire le lien entre des événements en apparence isolés pour identifier de potentielles menaces. Non seulement le machine learning surpasse les capacités de l’homme dans de domaine, mais il permet aussi d’alléger la pression sur des équipes de sécurité informatique de plus en plus contraintes en termes d’effectifs. À ce propos, un rapport mondial prévoit que la pénurie en experts de la sécurité devrait atteindre 1,8 millions de personnes d’ici 2022. Toutefois, est-ce la solution qui mettra fin à tous les problèmes une bonne fois pour toutes ? Depuis ses origines, l’informatique moderne fait l’objet d’un bras de fer incessant entre ceux qui cherchent à compromettre des systèmes et faire main basse sur des données, et ceux appelés à les protéger. Cela se voit notamment dans la prolifération des malwares polymorphiques destinés à prendre à défaut les méthodes de détection traditionnelles basées sur les signatures. Et c’est même encore plus criant dans le combat que se livrent les spammeurs et les développeurs d’anti-spam depuis plus de deux décennies. L’intelligence artificielle pourrait donner un avantage certain aux cybercriminels, hacktivistes et autres groupes à la solde d’États. De même qu’elle nous aide à trouver l’aiguille empoisonnée dans la meule de foin qu’est un environnement informatique, l’IA pourrait tout autant permettre aux pirates de détecter les vulnérabilités dans les systèmes clés d’une entreprise. Imaginez les ravages que causerait un malware capable de s’adapter en permanence à son environnement sans que ses concepteurs n’aient à faire quoi que ce soit ? Comme toujours dans ce genre de situation, l’attaquant a le beau rôle car il lui suffit de détecter une seule vulnérabilité pour s’engouffrer dans la brèche. Tandis que, côté défense, la moindre erreur peut se révéler fatale. L’intelligence artificielle pourrait également apprendre à imiter les comportements « normaux » d’utilisateurs pour fomenter des e-mails de phishing plus vrais que nature. Au départ, seuls les cybermafias et les groupes étatiques auront les savoir-faire techniques et les reins suffisamment solides pour investir dans l’IA. Mais, comme avec les autres outils et technologies avant elle, l’effet de ruissellement fera son œuvre et l’IA finira tôt ou tard par se démocratiser sur le dark web.  Que nous réserve donc l’avenir ? La guerre entre machines serait-elle un cycle sans fin ? Pour Elon Musk , le fondateur de Tesla, nous pourrions bien nous diriger vers un futur apocalyptique du style Skynet. Bien que je ne sois pas aussi pessimiste, je pense que nous devrions réellement tenir compte de l’importance de l’humain et des questions de morale et d’éthique dans cette course à l’IA comme nouvelle arme défensive. Sans un accompagnement humain, les systèmes de machine learning ne seraient d’ailleurs d’aucune utilité. L’humain serait-il un facteur décisif dans la guerre entre machines ? On ne peut pas l’exclure. Quoi qu’il en soit, selon un rapport, 91 % des experts en sécurité pensent que l’IA finira par être utilisée comme une arme contre les entreprises. Bref, une chose est sûre : sur ce terrain, la guerre ne fait que commencer.

 
 
  • Aucune note. Soyez le premier à attribuer une note !