Il serait naïf de supposer que les Humains, qui utilisent l’Intelligence Artificielle (IA) pour se défendre contre les cybermenaces – l’un des dangers les plus pressants du 21ème siècle – n’auraient pas à faire face à une riposte similaire de la part des cybercriminels. En effet, si les cyberattaquants sont bien conscients de la vulnérabilité des internautes, il est évident qu’ils ne se contentent plus des simples virus ou logiciels malveillants qui aiguisent l’appétit de nos antivirus. Ces menaces, bien que déjà sophistiquées, sont désormais à l’ère de l’IA, qui a la capacité de se perfectionner et de s’adapter de manière autonome.
Sans juger les tendances naturelles de l’Homme à l’affrontement, l’histoire a montré que, dans un affrontement équitable, celui-ci reste loyal… à condition que les armes soient égales. C’est là tout le problème : avec les IA auto-apprenantes, il devient légitime de se demander si elles risquent de se retourner seules contre des cibles, que ce soit en raison d’un malentendu ou de la simple exécution d’un programme. Ces intelligences, capables de se passer de l’intervention humaine, pourront-elles faire abstraction du discernement nécessaire pour identifier des ennemis légitimes, risquant ainsi de perturber l’équilibre entre les cyberdéfenseurs et les cyberagresseurs ?
Les technologies d’auto-apprentissage des IA, comme le deep learning, sont désormais une réalité, notamment illustrée par RankBrain de Google, qui optimise les résultats de recherche. Ce phénomène est bien plus large que cet exemple : des capacités d’auto-évolution de l’IA pourraient donner naissance à des cyberattaques d’une puissance inédite. L’évolution rapide des menaces pose ainsi un défi colossal aux cyberdéfenses, mais aussi à la société dans son ensemble. La question de la cybersécurité dépasse désormais le simple cadre des entreprises et touche des enjeux de gouvernance globaux.
Malgré cela, un fossé reste entre les perceptions actuelles des cybermenaces et la réalité à venir, avec des IA potentiellement capables de mener des attaques autonomes. Bien que des initiatives comme celles du CIGREF œuvrent pour sensibiliser le public aux risques numériques, beaucoup sous-estiment encore l’ampleur des cybermenaces. Et pourtant, les coûts d’une cyberattaque peuvent s’avérer dévastateurs, affectant à la fois les finances et la confiance des consommateurs.
Les attaques DDoS, en particulier, sont de plus en plus utilisées pour perturber les services essentiels en exploitant des objets connectés. Leurs conséquences sont souvent énormes : des médias aux entreprises en passant par des infrastructures publiques, toute la société peut en être affectée. Le phénomène des botnets, des réseaux de robots informatiques connectés, prend ainsi une ampleur inquiétante, avec l’ajout d’éléments d’intelligence artificielle permettant aux attaques de devenir plus autonomes.
Les Humains doivent-ils donc prendre l’initiative de définir les frontières entre l’IA dans la science-fiction et dans la réalité ? Si la question semble relever de la fiction, elle pourrait devenir bien plus tangible si, un jour, une cyberattaque se voit menée par des objets du quotidien connectés, comme des couches de bébé ou des poussettes. L’urgence est donc de ne pas attendre que l’impensable se produise pour anticiper et encadrer l’utilisation de l’IA dans ce domaine.
Les préoccupations éthiques autour de l’IA existent déjà, mais elles doivent gagner en visibilité et en impact. Il est désormais crucial de réunir des acteurs clés – chefs d’État, dirigeants d’entreprises, chercheurs et experts numériques – dans un cadre global semblable à une « Conférence des Parties » (COP) pour que l’IA et ses enjeux soient pris en compte comme des priorités majeures pour l’avenir de l’humanité. Les discussions doivent aller au-delà de simples réflexions et se traduire par des actions concrètes pour réguler, encadrer et sécuriser cette technologie avant qu’il ne soit trop tard.
Dans ce contexte, il est essentiel que les humains, en tant que créateurs et utilisateurs de ces technologies, prennent une part active dans la définition des règles du jeu. Au lieu de laisser l’IA évoluer sans contrôle, il est de notre responsabilité de mettre en place des garde-fous, d’initier des dialogues éthiques et d’établir des régulations afin de protéger la société et l’intégrité humaine. Le défi ne réside pas seulement dans la création de technologies avancées, mais aussi dans la capacité à les maîtriser et à les orienter vers un avenir sécuritaire et responsable.