Rechercher
Fermer ce champ de recherche.

Nous avons vu dans nos articles précédents ce qu’étaient les IA et comment elles pouvaient être appliquées dans différents domaines industriels. Mais quelles sont les conséquences de cette technologie sur la cybersécurité

En effet les IA peuvent servir à la fois à ceux qui cherchent à compromettre les systèmes, tout comme à ceux qui les protègent. Dans l’article d’aujourd’hui, nous nous intéresserons à la cybercriminalité liée aux IA.

Comment l'IA peut compromettre la cybersécurité

Les experts affirment que les attaquants peuvent utiliser l’IA générative et les grands modèles de langage pour étendre les attaques à une vitesse et une complexité jamais atteintes précédemment. Ils peuvent notamment trouver de nouveaux moyens de profiter des tensions géopolitiques pour mener des attaques avancées. Les IA permettent également aux hackers d’ optimiser leurs techniques d’attaque par ransomware et phishing et de les sophistiquer grandement.

Grâce à l’IA, les cybercriminels peuvent en effet rester en sommeil et passer inaperçus dans le réseau d’une entreprise pendant de longues périodes, au cours desquelles ils vont mettre en place des outils permettant d’accéder à l’infrastructure critique de l’organisation. Ensuite, lorsqu’ils sont prêts à lancer une attaque contre l’ensemble de l’entreprise, ils peuvent mettre sous écoute des réunions, extraire des données, diffuser des logiciels malveillants, créer des comptes utilisateurs privilégiés pour accéder à d’autres systèmes et/ou installer des rançongiciels.

L’IA est un outil particulièrement efficace pour les cybercriminels en raison de sa capacité à apprendre en collectant des données et à anticiper les réactions par conséquence ce qui rend les attaques plus efficaces. Les attaques automatisées et ciblées, telles que les attaques de phishing et les logiciels malveillants générés par l’IA, peuvent être plus difficiles à détecter et à contrer. Les IA permettent de façon générale d’améliorer des techniques de piratage existantes: attaques furtives, décryptage de mot de passe, piratage de CAPTCHA, ou encore usurpation d’identité.

Cependant la cybercriminalité alimentée par les IA a également des spécificités; en voici quelques-unes.

Création de fausses données (deepfake), manipulation de données

Si les données sont modifiées ou corrompues un outil alimenté par l’IA peut produire des résultats inattendus, voire malveillants. Il est actuellement parfaitement possible de corrompre un modèle avec des données malveillantes pour modifier les résultats ce qui peut être très dangereux pour l’entreprise ou ses clients. 

Les attaquants utilisent l’apprentissage automatique et l’IA pour compromettre les environnements en empoisonnant les modèles avec des données inexactes. Les modèles d’apprentissage automatique s’appuient en effet sur des échantillons de données correctement étiquetés pour établir des profils de détection précis et reproductibles. En introduisant des fichiers bénins qui ressemblent à des logiciels malveillants ou en créant des modèles de comportement qui s’avèrent être des faux positifs, les attaquants peuvent faire  croire que les comportements d’attaque ne sont pas malveillants. Les attaquants peuvent également empoisonner les modèles d’IA en introduisant des fichiers malveillants que les entraînements à l’IA ont qualifiés de sûrs.

Par exemple, des images légèrement modifiées peuvent induire un modèle de reconnaissance d’images en erreur. Cela peut avoir des implications graves dans des domaines tels que la sécurité des véhicules autonomes et la reconnaissance faciale.

Les attaques effectuées à l’aide des IA font partie des menaces émergentes identifiées par l’agence de cybersécurité de l’union européenne

Malwares et robots malveillants avancés

Les outils alimentés par l’IA pourraient permettre aux développeurs ayant des compétences de base en programmation de créer des logiciels malveillants automatisés, tels que des robots malveillants avancés. Un robot malveillant peut voler des données, infecter des réseaux et attaquer des systèmes avec peu ou pas d’intervention humaine.

Un logiciel malveillant sophistiqué, par exemple, peut modifier les bibliothèques et les composants du système local, exécuter des processus en mémoire et communiquer avec un ou plusieurs domaines appartenant à l’infrastructure de contrôle de l’attaquant. Toutes ces activités combinées créent un profil connu sous le nom de tactiques, techniques et procédures (TTP). Les modèles d’apprentissage automatique peuvent observer les TTP et les utiliser pour développer des capacités de détection.

Apprentissage à partir des modèles d’IA existants

Les attaquants cherchent activement à cartographier les modèles d’IA existants et en cours de développement utilisés par les fournisseurs de cybersécurité et les équipes opérationnelles. En apprenant comment les modèles d’IA fonctionnent et ce qu’ils font, les criminels peuvent perturber activement les opérations d’apprentissage automatique et les modèles au cours de leurs cycles. Cela peut permettre aux pirates d’influencer le modèle en trompant le système pour favoriser les attaquants et leurs tactiques. Cela peut également permettre aux pirates d’échapper complètement aux modèles connus en modifiant subtilement les données afin d’éviter la détection sur la base de modèles reconnus.

Retrouvez-nous dans quinze jours pour la dernière partie de notre article. Nous verrons en effet comment les IA peuvent être bénéfiques pour la cybersécurité. Dans l’intervalle, si vous avez un contenu à protéger, film, série, livre album de musique ou logiciel, n’hésitez pas à nous contacter, l’un de nos gestionnaires de compte se fera un plaisir de vous aider. Nous sommes pionniers dans la cybersécurité et la protection de propriété intellectuelle depuis plus de dix ans. Bonne rentrée à tous ! 

Partager cet article