L'Edge AI, qu'est-ce que c'est ?

Copier l'URL

 

Accélérez l'IA avec Red Hat OpenShift AI 

Découvrez comment la solution Red Hat® OpenShift® AI accélère l'ensemble du cycle de vie des modèles et applications d'IA/AA avec des outils intégrés, des flux de travail reproductibles, des options de déploiement flexibles et un écosystème de partenaires de confiance.

 

L'Edge AI, ou intelligence artificielle (IA) en périphérie du réseau, désigne la mise en œuvre de l'intelligence artificielle dans un environnement d'edge computing. Cette technologie permet de réaliser les calculs à proximité de l'endroit où sont collectées les données, plutôt que dans une installation de cloud computing centralisée ou un datacenter hors site. Les appareils peuvent ainsi prendre des décisions plus intelligentes plus rapidement, sans se connecter au cloud ou à des datacenters hors site.

Puisque l'edge computing place le stockage des données plus près de l'appareil, les algorithmes d'IA traitent les données créées sur cet appareil avec ou sans connexion à Internet. Les données sont ainsi traitées en quelques millisecondes et offrent un retour d'informations en temps réel. L'Edge AI permet donc de fournir des réponses presque instantanément. Cette approche s'avère plus sûre dans le cas où les données sensibles ne quittent jamais la périphérie du réseau.

Puisqu'ils sont capables de déplacer les données en dehors des datacenters surchargés du cloud, les appareils d'edge computing comme les capteurs et les objets connectés sont en passe de devenir des technologies clés.

Avec l'IA traditionnelle, les données générées par les technologies connectées sont transmises à un système cloud back-end. Avec l'Edge AI, les modèles d'IA ne sont pas exécutés au niveau du back-end, mais ils sont configurés dans des processeurs à l'intérieur des appareils connectés qui s'exécutent en périphérie du réseau. Cette approche ajoute une couche d'intelligence en périphérie. En plus de collecter des indicateurs de mesure et des résultats d'analyse, les appareils les exploitent pour agir grâce à un modèle d'apprentissage automatique (AA) intégré. Ils deviennent ainsi de véritables intelligences artificielles en périphérie du réseau.

L'objectif de l'IA reste le même : construire des machines intelligentes qui fonctionnent et remplacent le personnel pour certaines tâches, sans surveillance humaine. Toutefois, l'Edge AI exécute les tâches et prend des décisions localement, à l'intérieur ou à proximité de l'appareil utilisé.

La combinaison de l'edge computing et de l'intelligence artificielle offre de grands avantages. Avec l'Edge AI, les capacités de calcul haute performance sont étendues aux sites d'edge computing, là où se trouvent les capteurs et les objets connectés. Les utilisateurs peuvent traiter des données en temps réel sur leurs appareils, car aucune connectivité ni intégration entre les systèmes n'est nécessaire. Ils peuvent également gagner du temps en agrégeant les données et en servant d'autres utilisateurs, sans communiquer avec d'autres emplacements physiques.

Voici les principaux avantages de l'Edge AI :

  • Réduction de la consommation d'énergie : diminution des coûts énergétiques grâce à la conservation des processus de données en local, car les besoins en énergie pour l'exécution de l'Edge AI sont beaucoup plus faibles que dans les datacenters cloud.
  • Réduction de la bande passante : diminution de l'utilisation de la bande passante dans le flux de données et minimisation des coûts grâce au traitement, à l'analyse et au stockage des données localement au lieu de les envoyer dans le cloud.
  • Confidentialité : diminution du risque de détournement ou de mauvaise manipulation des données grâce au traitement des données localement sur les appareils d'edge computing.
  • Sécurité : priorité accordée au transfert de données importantes grâce au traitement et au stockage en périphérie du réseau ou à un filtre de données redondantes, superflues et inutiles.
  • Évolutivité : mise à l'échelle facilitée des systèmes grâce à des plateformes basées dans le cloud et à des capacités d'edge computing natives sur les équipements embarqués.
  • Réduction de la latence : réduction de la charge de la plateforme cloud et analyse des données en local, permettant de libérer la plateforme pour d'autres tâches.

Chez Red Hat, nous collaborons étroitement avec la vaste communauté Open Source sur les technologies de conteneurs et Kubernetes. La solution Red Hat® OpenShift® rassemble des services fiables et testés pour faciliter le développement, la modernisation, le déploiement, l'exécution et la gestion des applications. 

Red Hat OpenShift inclut des capacités clés qui permettent d'appliquer les pratiques MLOps de manière cohérente dans les datacenters, dans le cloud hybride et en périphérie du réseau. Avec l'IA/AA sur Red Hat OpenShift, vous pouvez accélérer les workflows d'IA/AA et la distribution des applications intelligentes basées sur l'IA.

Gamme de produits basée sur l'IA, Red Hat OpenShift AI fournit des outils pour le cycle de vie complet des expériences et modèles d'IA/AA, notamment la solution Red Hat OpenShift AI. Il s'agit d'une base cohérente et évolutive qui repose sur des technologies Open Source pour les responsables de l'exploitation. Elle donne aux data scientists et équipes de développement un accès à un écosystème de partenaires spécialisés pour stimuler l'innovation dans le domaine de l'IA.

Pour aller plus loin

Article

L'IA générative, qu'est-ce que c'est ?

L'IA générative s'appuie sur des modèles d'apprentissage profond entraînés avec de grands ensembles de données pour créer des contenus.

Article

L'apprentissage automatique, qu'est-ce que c'est ?

L'apprentissage automatique est une technique qui consiste à entraîner un ordinateur à identifier des schémas, à établir des prédictions et à apprendre à partir d'expériences passées sans programmation explicite.

Article

Un modèle de fondation, qu'est-ce que c'est ?

Un modèle de fondation est un type de modèle d'apprentissage automatique (AA) qui est pré-entraîné pour réaliser une série de tâches. 

En savoir plus sur l'IA/AA

Produits

Nouveau

Une plateforme de modèle de fondation conçue pour développer, tester et exécuter facilement des grands modèles de langage (LLM) de la famille Granite pour les applications d'entreprise.

Gamme de produits pour l'IA qui fournit des outils pour entraîner, ajuster, distribuer, surveiller et gérer des expériences et des modèles d'intelligence artificielle/apprentissage automatique (IA/AA) sur Red Hat OpenShift.

Plateforme d'applications d'entreprise qui inclut un ensemble unifié de services testés conçus pour distribuer des applications sur l'infrastructure de votre choix. 

Red Hat Ansible Lightspeed with IBM watsonx Code Assistant est un service d'IA générative conçu par et pour les professionnels de l'automatisation, les équipes d'exploitation et les développeurs qui travaillent avec Ansible. 

Ressources

Livre numérique

Éléments importants pour la création d'un environnement d'IA/AA prêt pour la production

Rapport d'analyste

The Total Economic Impact™ of Red Hat Hybrid Cloud Platform for MLOps

Webinar

Getting the most out of AI with open source and Kubernetes