Dans un monde où le rythme de l'évolution technologique s'accélère, l'intelligence artificielle est devenue l'un des éléments les plus importants du champ de bataille moderne, non seulement comme un outil de soutien, mais comme une arme stratégique dont la menace peut dépasser celle des armes traditionnelles, voire même nucléaires.
Les armées n'ont plus besoin de franchir les frontières avec des armes à feu, car une attaque cybernétique soutenue par l'intelligence artificielle peut désactiver tout un réseau électrique, pirater des systèmes de défense aérienne, voire influencer l'opinion publique à travers des campagnes de désinformation coordonnées.
Le Dr. Mohamed Mohsen Ramadan, expert en sécurité cybernétique et lutte contre la criminalité électronique, a averti que les guerres futures dépendront de plus en plus des "algorithmes tueurs", où des systèmes intelligents prendront des décisions sur le terrain de manière mortelle sans supervision humaine directe, dans ce qu'on appelle le "décision automatique de tuer".
Ce type de décision exclut l'humain de l'équation de la vie et de la mort, soulevant des questions éthiques et juridiques sans précédent.
Le Dr. Ramadan a expliqué que l'intelligence artificielle est déjà utilisée pour piloter des drones, analyser instantanément de gros volumes de données pour prédire avec précision les mouvements de l'ennemi, ainsi que pour mener des attaques cybernétiques capables de contourner les systèmes de protection et de les pirater avant d'être détectées.
Elle est également utilisée pour propager de fausses nouvelles via des robots de discussion et des plateformes de médias sociaux dans le but de perturber le front intérieur des pays ciblés.
Il a souligné que plusieurs parties comptent sur l'intelligence artificielle pour diriger des drones sans pilote, pirater l'infrastructure numérique, perturber les systèmes de communication et de contrôle militaires, gérer des campagnes d'influence informationnelle, et cibler avec précision des objectifs pour des frappes aériennes.
Il a insisté sur le fait que "les algorithmes seront plus rapides que les balles", confirmant que l'intelligence artificielle pourrait prendre des décisions cruciales sans retour à l'humain, ce qui en fait une menace extrêmement dangereuse.
Il a mentionné que de nombreux technologues ont exprimé leurs craintes que l'intelligence artificielle puisse devenir plus dangereuse pour l'humanité que les armes nucléaires si elle est laissée sans contrôles et réglementations clairs.
La peur ne vient pas de la machine elle-même, mais de l'humain qui la programme pour tuer, sans aucune éthique ou surveillance.
Le Dr. Ramadan a conclu en soulignant que la sécurité cybernétique est devenue une nécessité nationale, et que les pays doivent investir dans le cryptage avancé, développer des capacités en informatique quantique, créer des armées électroniques capables de dissuasion et de défense, tout en travaillant sur un cadre juridique international régissant l'utilisation de l'intelligence artificielle dans les conflits armés.
La question cruciale n'est plus seulement comment combattre, mais comment empêcher une machine sans émotions de déclencher une guerre sans fin ?.