/
Cyber-résilience

Pourquoi l'IA pose un problème de communication

Le langage est un outil dont le but est remarquablement simple : transférer la pensée ou l'idée qui me vient à l'esprit dans la vôtre, de la manière la plus complète et la plus précise possible. Comme la plupart des outils, l'outil du langage peut être utilisé par différents utilisateurs de différentes manières.

La maîtrise de la langue n'est pas une garantie de réussite. Les nouvelles technologies sont synonymes d'un nouveau vocabulaire. Et un nouveau vocabulaire signifie une utilisation moins cohérente de ce vocabulaire. Et rien n'est plus récent ni plus important sur le marché que la technologie liée à l'IA.

Tout est une question de contexte

La langue ne fonctionne que lorsque les deux parties d'une conversation sont d'accord sur le contexte et les définitions. Dit plus familièrement, la langue fonctionne mieux lorsque les deux côtés sont « sur la même longueur d'onde ». Dans le monde technique, l'exemple classique d'une mauvaise communication de ce type est celui entre l'ingénierie et le marketing. C'est si courant, en fait, que c'est la prémisse fondamentale de l'humour du dessin animé Dilbert.

A Dilbert cartoon about how marketing and engineering disagree
Crédit photo : Scott Adams via Popverse

Le problème est en fait assez simple : l'objectif d'un ingénieur est de communiquer une idée avec précision. Bien que le marketing soit également une question de communication, la précision est d'une importance secondaire. L'objectif premier est d'influencer. Si un mot moins précis obtient une meilleure réponse de la part du responsable du marketing, le mot le moins précis sera utilisé. Naturellement, cela entraîne une déconnexion (c'est-à-dire une mauvaise communication) lorsqu'un ingénieur tente de tirer des leçons des supports marketing.

Une autre source fréquente de malentendu est le fait que deux groupes ont des définitions différentes du même mot. Dans certains cas, les deux sont même corrects, bien qu'incompatibles. Le mot « théorie » en est un parfait exemple. Pour un scientifique, un ingénieur ou un mathématicien, le mot « théorie » a une définition très précise qui est très différente de celle d'une personne non technique. William Briggs est un scientifique titulaire d'un doctorat en statistiques mathématiques qui a apporté les informations suivantes sur le sujet en 2012 :

« D'ailleurs, c'est ma bête noire de qualifier de « théorie » tout modèle intellectuel de quelque chose. En science, un modèle est une description explicative et prédictive d'un système ou d'un processus. Une hypothèse est un modèle qui peut en principe être falsifié, c'est-à-dire que les preuves qui réfuteraient le modèle peuvent être énoncées sans ambiguïté. Une théorie est une hypothèse qui a, jusqu'à présent, survécu à toutes les tentatives visant à prouver qu'elle était fausse. »

L'amalgame des définitions de « théorie » et d' « hypothèse » dans l'esprit des non-scientifiques fait de la communication entre scientifiques et non-scientifiques un problème difficile à résoudre. En d'autres termes, il est difficile de transférer complètement et précisément les pensées ou les idées d'un scientifique dans la tête d'un non-scientifique. D'une manière plus générale, il s'agit d'un bon exemple de groupes distincts qui ont de la difficulté à communiquer entre eux.

Comment résoudre ce problème ?

En tant qu'utilisateur de technologies, une telle communication « inter-silos » constitue un défi quotidien, que ce soit entre vous et un fournisseur, ou entre vous et d'autres groupes au sein de votre organisation. Comme indiqué au début, les technologies liées à l'IA sont nouvelles sur le marché et sont donc source de nombreuses imprécisions et problèmes de communication.

Pour résoudre ce problème, vous avez d'abord besoin d'une source de données exactes et précises. Votre équipe commerciale, un directeur de compte et un ingénieur commercial ont pour mission de vous inciter à acheter un produit. On leur apprend à communiquer en termes de marketing. Ce que vous avez à offrir, c'est que la plupart des ingénieurs commerciaux, ainsi qu'un nombre surprenant de directeurs de comptes, sont issus d'une formation en ingénierie. Il n'est pas difficile de les mettre en « mode geek », où ils abandonnent le vocabulaire du marketing pour passer au langage de l'ingénierie. À ce stade, il est important de connaître les définitions des termes d'ingénierie qu'ils utiliseront.

L'IA existe en tant que domaine de l'informatique depuis le milieu des années 1950. À ce titre, le vocabulaire est établi dans le monde technique. Mais tout cela est nouveau pour les consommateurs ces dernières années, de sorte que les définitions des mots utilisés dans les médias destinés aux consommateurs sont un peu « floues ». Vous avez sans aucun doute rencontré des termes tels que « intelligence artificielle », « apprentissage automatique », « grands modèles linguistiques », « GPT », « IA générative », « apprentissage profond », « réseaux neuronaux » et « ChatGPT ». Donnons-leur un sens.

Deux catégories fondamentales d'IA

Tout comme le terme « physique », l'IA ou l'intelligence artificielle n'est pas vraiment une « chose » en soi. Il s'agit plutôt d'un cadre dans lequel de nombreux autres domaines existent. Si l'on exclut les premières pistes de recherche sous l'égide de l'IA, il existe aujourd'hui deux types fondamentaux d'IA : l'IA basée sur les statistiques et l'IA basée sur les réseaux neuronaux.

Apprentissage automatique

L'IA basée sur les statistiques est mieux connue sous le nom de ML ou d'apprentissage automatique. Fondamentalement, le ML consiste à créer un modèle composé d'une ou de plusieurs équations pour décrire une solution, puis à « entraîner » ce modèle à l'aide d'un renforcement positif et négatif en fournissant aux modèles de bonnes et de mauvaises réponses. Cet entraînement consiste essentiellement en une recherche assistée par ordinateur des coefficients pour chaque variable de chaque équation, qui, lorsque de nouvelles valeurs sont intégrées aux variables, donne les réponses souhaitées.

Si cela semble trop simple pour être considéré comme de l'intelligence, vous n'êtes pas le seul à penser ainsi. Il est courant que le ML soit considéré comme une science « de moindre importance » dans le cadre de l'IA. Si le statut du ML en tant qu' « intelligence » est discutable, son pouvoir en tant qu'outil ne l'est pas. Le ML excelle dans de nombreuses tâches difficiles.

Bien que le ML puisse être utilisé pour de nombreuses choses, si je devais choisir un seul cas d'utilisation qui définisse son utilité, je choisirais le « regroupement ». Le machine learning est exceptionnellement puissant pour trouver des choses qui « se ressemblent ». Il se peut que vous trouviez toutes les photos de votre chien sur votre téléphone. Ou trouver le visage de personnes sur une photo pour l'utiliser comme point de focalisation de l'objectif. Puisque nous parlons de sécurité, il peut être utile de trouver des groupes de serveurs de votre réseau présentant des schémas de trafic similaires, puis de vous avertir lorsque le trafic en provenance de l'un de ces serveurs devient soudainement inférieur à ce qu'il était auparavant (c'est-à-dire un écart par rapport à la base de référence), ce qui peut indiquer une violation.

Il existe des dizaines d'autres utilisations possibles, notamment la recherche de tous vos serveurs NTP, de toutes vos bases de données Redis ou de toutes les machines de votre réseau exécutant d'anciennes versions non corrigées de Windows.

Si vous lisez qu'un produit utilise l'IA, il est probable que la technologie spécifique utilisée soit le ML. Comparé à d'autres technologies d'IA, le ML est la plus prévisible, la mieux comprise et la plus facile à mettre en œuvre. Il résout également bien de nombreux problèmes communs à l'espace de sécurité. Il convient également de noter que si la formation d'un modèle ML (la partie prise en charge par le fournisseur) nécessite des ressources de calcul importantes, l'utilisation d'un modèle ML (la partie que vous effectuez une fois que vous avez acheté le produit) une fois qu'il a été entraîné ne nécessite pas plus de puissance de calcul que toute autre application.

Apprentissage profond

Lorsque la personne moyenne entend le terme « IA », les solutions basées sur le Deep Learning sont probablement ce qu'elle a en tête. Avant de définir le Deep Learning, nous devons d'abord parler des réseaux neuronaux.

L'élément de base d'un ordinateur est la porte NAND. Avec la logique informatique, tout autre type de porte, et donc tout ordinateur, peut être construit à partir de portes NAND. En fait, les ordinateurs de la sonde Apollo avaient la taille d'une grande boîte à chaussures et contenaient environ 14 000 portes NAND.

Les portes NAND sont de simples créatures. Dans sa forme la plus simple, une porte NAND possède deux entrées et une sortie. Lorsque les deux entrées sont hautes (« on » ou logique 1), la sortie est basse (« off » ou logique 0). D'autres combinaisons d'entrées (bas/bas, bas/haut ou haut/bas) donnent une sortie élevée. Simple. Mais à partir de cette humble construction logique, tous les ordinateurs sont construits.

L'élément constitutif fondamental ou « unité de traitement » du cerveau est un neurone. Les neurones ne sont pas beaucoup plus complexes que les portes NAND. Ils communiquent électrochimiquement via plusieurs entrées (généralement des centaines) et une sortie. Bien que la logique d'un neurone soit plus complexe que celle d'une porte NAND (généralement une fonction de seuil analogique, plutôt qu'une porte logique activée/désactivée), elle est facilement modélisée par logiciel.

Un groupe de neurones « connectés » ensemble constitue un réseau neuronal. Bien que les réseaux neuronaux soient une curiosité amusante, leur véritable pouvoir se révèle lorsque des couches de neurones sont connectées, chaque neurone alimentant un ou plusieurs autres neurones en grand nombre. C'est du Deep Learning. Officiellement, l'apprentissage profond est défini comme « un réseau de neurones contenant plus d'une couche ».

Ce qui est intéressant, c'est que les réseaux neuronaux sont un descendant des perceptrons, inventés en 1943 et mis en œuvre pour la première fois en 1958. Bien que les perceptrons présentaient de sérieuses limites, le concept de base était solide et a évolué pour devenir les réseaux neuronaux en 1987. En d'autres termes, nous disposons des éléments de base et comprenons les idées fondamentales sur lesquelles repose l'incroyable technologie d'IA d'aujourd'hui depuis plus de trente-cinq ans, mais les progrès de l'IA étaient glaciaux jusqu'à ces dernières années.

Ce qui manquait, c'était la puissance de calcul. Le cerveau humain compte environ 100 milliards de neurones. Entre ces neurones, il existe environ 100 billions de connexions. La puissance informatique a augmenté de façon exponentielle depuis sa création, mais ce n'est que grâce à l'avènement récent de coprocesseurs graphiques informatiques extrêmement puissants dotés de milliers de cœurs de processeur chacun qu'il a été possible de créer des réseaux de neurones avec un nombre significatif de neurones. Jetons quelques chiffres pour mettre les choses en perspective.

En 1986, lorsque j'ai commencé à m'intéresser sérieusement à la programmation, le superordinateur le plus puissant du monde était le Cray X-MP/48. Cette machine coûtait environ 20 millions de dollars américains à l'époque, soit environ 55 millions de dollars américains en monnaie actuelle. Il avait à peu près la taille d'un réfrigérateur de plain-pied d'un restaurant et consommait environ 350 kW d'électricité, soit à peu près autant qu'un bloc carré de maisons avec la climatisation activée. Un Raspberry Pi Zero, lors de sa sortie il y a quelques années, coûtait 5 dollars américains et offrait à peu près les mêmes performances que l'un de ces systèmes. Un seul iPhone ou téléphone Android haut de gamme que vous transportez dans votre poche et que vous jetez à la poubelle lorsque vous cassez l'écran est à peu près aussi puissant que tous les superordinateurs du monde en 1986 réunis. Une visite dans votre magasin à grande surface local peut vous permettre d'obtenir une machine équivalant à quelques centaines d'iPhones.

Bien que d'énormes progrès aient été réalisés dans le domaine informatique de l'IA, c'est vraiment l'augmentation étonnante de la puissance informatique et de la capacité à simuler un nombre toujours plus important de neurones qui a permis de développer les capacités remarquables des solutions d'IA actuelles.

Des solutions basées sur le deep learning

En dehors du ML, presque toutes les autres technologies d'IA actuelles sont basées sur le Deep Learning. L'IA générative est la classification générale des systèmes qui produisent le facteur « wow » de l'IA d'aujourd'hui. L'IA générative est la capacité de synthétiser de nouvelles données, souvent dans le style d'autres données d'entrée. Cela peut être audible (voix, sons ou musique), visuel (images, films, dessins) ou textuel (mots, phrases, paragraphes, poésie ou paroles, par exemple). Ce résultat peut être entièrement original ou réalisé dans le style d'un artiste en particulier (votre moteur de recherche préféré devrait pouvoir trouver des exemples de la voix d'Elvis chantant Baby's Got Back de Sir Mix-a-Lot ou une peinture représentant un corgi dans le style de Vermeer).

Crédit photo : Casey Rickey

Les grands modèles de langage sont des systèmes d'IA génératifs spécialisés dans le langage humain. À moins que vous ne viviez sous un très gros rocher, vous avez probablement entendu parler de ChatGPT. ChatGPT est une interface Web qui s'ajoute au produit GPT d'AutoAI. ChatGPT est un système remarquable qui, basé sur les instructions et les questions d'un utilisateur, produit des résultats allant de déroutants à étonnants. ChatGPT se fera un plaisir de faire les devoirs de mathématiques de votre enfant (ou de rédiger son rapport de livre), de vous écrire une histoire, d'analyser un logiciel ou de vous aider à écrire du code en Python. La sortie de ChatGPT peut facilement être considérée comme intelligente (bien que la question de savoir si cette sortie représente vraiment l'intelligence ou non dépasse le cadre de cet article). Le résultat est certainement suffisamment proche de l'intelligence pour montrer où la technologie pourrait évoluer au cours des cinq prochaines années.

Deep Learning en matière de sécurité

À ce jour, les solutions d'IA basées sur les réseaux neuronaux ont été peu intégrées dans les produits de sécurité. Ce n'est certainement pas zéro, mais il reste encore quelques obstacles à surmonter avant qu'un fournisseur ne s'engage à intégrer cette technologie.

Si je puis me permettre de prendre quelques libertés avec le terme « motivation », la première responsabilité de la génération actuelle de grands modèles linguistiques est que sa « motivation » est de produire un résultat satisfaisant pour l'utilisateur. Cela semble plutôt bien, jusqu'à ce que vous vous rendiez compte que la sortie qui satisfait un utilisateur n'est pas nécessairement une sortie correcte. Un LLM est entièrement content d'avoir tort, tant que l'utilisateur est content. En fait, il ne serait même pas exact de dire qu'avoir raison est une considération secondaire pour un LLM. S'il s'avère que le résultat d'un LLM est exact, il s'agit plutôt d'un heureux hasard, et cela ne préoccupe pas vraiment le LLM. Bien que cela soit acceptable lors de la rédaction de poèmes assistés par un LLM, cela peut être problématique lorsqu'il s'agit d'aider à la politique de sécurité.

Deuxièmement, les LLM peuvent encore « devenir incontrôlables », pour ainsi dire. Par nécessité, les LLM sont formés avec un éventail de connaissances et de données bien plus large que ce qui est strictement nécessaire pour leur utilisation. En fait, il est parfois utile de penser à utiliser un LLM de la même manière que l'embauche d'un employé. Un employé embauché pour effectuer la tâche dont vous avez besoin a certainement une expérience de vie en dehors de cette tâche. À l'instar d'un employé errant, les implémentations actuelles de LLM peuvent être menées en dehors des sujets de conversation sûrs.

Les LLM sont une technologie extrêmement récente, et ces questions sont traitées par de nombreuses personnes très intelligentes. Ils seront sans aucun doute résolus au cours de la prochaine année environ. Une fois qu'ils seront disponibles, attendez-vous à de nombreuses nouvelles fonctionnalités du produit, notamment des interfaces en langage naturel, la hiérarchisation automatique des problèmes, des références croisées à des problèmes précédemment résolus et des suggestions pour les résoudre. Dans douze à dix-huit mois, je serais surpris qu'aucun produit sur le marché ne puisse vous envoyer l'e-mail suivant :

Cher utilisateur. Un trafic anormal présentant des caractéristiques correspondant à la nouvelle version CVE-20240101 a été détecté sur les quatre machines suivantes de votre centre de données de Dallas à partir de 04:53:07 ce matin : [...] Le correctif XXX du fournisseur était absent sur ces quatre machines, et le correctif YYY était également absent sur deux de ces machines, qui atténuent le problème CVE-20240101. Comme il s'agissait de serveurs de base de données redondants et qu'une capacité suffisante était disponible pour le basculement, ces machines ont été temporairement déconnectées du réseau. Cliquez >ici<< to automatically re-image, patch, and restore these systems, or click > pour plus d'informations et d'autres options.

Chaque élément existe déjà aujourd'hui, du moins dans la phase de recherche. Les LLM peuvent analyser le texte anglais des CVE (Common Vulnerabilities and Exposures). Ils sont capables de comparer les données de cette CVE avec le trafic réseau réel. Ils sont capables d'analyser le volume et la capacité du réseau. Ils sont capables d'analyser les logiciels et la configuration installés (et manquants) d'un système. Ils sont également capables de générer des scripts Ansible pour automatiser la reconstruction des systèmes et la restauration des configurations et des données. Il s'agit simplement de rassembler les pièces du puzzle.

En guise de clôture

Dans le monde des médias sociaux et de l'actualité, nous observons l'histoire se dérouler alors que le langage (et, par conséquent, les communications) est délibérément rendu moins précis. Nous observons la mise en œuvre concrète des leçons de Bernays et Orwell. Dans le monde de la technologie, cependant, nous ne sommes pas encore confrontés à ces défis. Nous sommes toujours libres de parler avec précision et exactitude. Avoir le bon vocabulaire est un élément important à cet égard.

Sujets connexes

Aucun article n'a été trouvé.

Articles connexes

Pourquoi les modèles de services cloud plus flexibles sont moins coûteux
Cyber-résilience

Pourquoi les modèles de services cloud plus flexibles sont moins coûteux

Comprenez mieux les calculs économiques des fournisseurs de cloud public et faites des choix éclairés en matière de compromis en matière d'allocation des ressources.

Loin des yeux, loin de l'esprit : les dangers liés à l'ignorance de la visibilité dans le cloud
Cyber-résilience

Loin des yeux, loin de l'esprit : les dangers liés à l'ignorance de la visibilité dans le cloud

Découvrez pourquoi les approches de visibilité traditionnelles ne fonctionnent plus et comment obtenir une visibilité complète sur vos environnements hybrides et multicloud.

Pourquoi les approches de sécurité traditionnelles ne fonctionnent pas dans le cloud
Cyber-résilience

Pourquoi les approches de sécurité traditionnelles ne fonctionnent pas dans le cloud

Erika Bagby, directrice principale du marketing produit d'Illumio, discute de la sécurité du cloud par rapport à la sécurité traditionnelle et explique pourquoi elle ne fonctionne pas dans un environnement cloud.

Il ne faut pas faire confiance à l'IA : pourquoi le comprendre peut être transformateur
Cyber-résilience

Il ne faut pas faire confiance à l'IA : pourquoi le comprendre peut être transformateur

Découvrez pourquoi le directeur technique et cofondateur d'Illumio pense que la « frontière technologique » de l'IA est plus petite qu'il n'y paraît, et comment cela influence la manière dont nous utilisons l'IA.

L'histoire et les défis des pare-feux de nouvelle génération
Cyber-résilience

L'histoire et les défis des pare-feux de nouvelle génération

Découvrez la dynamique des pare-feux de nouvelle génération (NGFW), leurs défis liés à la complexité et les innovations futures possibles.

Exploration de l'utilisation de la fonctionnalité NGFW dans un environnement de microsegmentation
Cyber-résilience

Exploration de l'utilisation de la fonctionnalité NGFW dans un environnement de microsegmentation

En savoir plus sur les recherches d'Illumio sur les possibilités de mise en œuvre des fonctionnalités NGFW dans un environnement de microsegmentation.

Assume Breach.
Minimisez l'impact.
Augmentez la résilience.

Ready to learn more about Zero Trust Segmentation?