Raccourcis

L'apprentissage profond, ou deep learning, qu'est-ce que c'est ?

Copier l'URL

 

Accélérez l'IA avec Red Hat OpenShift AI 

Découvrez comment la solution Red Hat® OpenShift® AI accélère l'ensemble du cycle de vie des modèles et applications d'IA/AA avec des outils intégrés, des flux de travail reproductibles, des options de déploiement flexibles et un écosystème de partenaires de confiance.

 

L'apprentissage profond est une technique d'intelligence artificielle (IA) qui apprend aux ordinateurs à traiter des données en utilisant un algorithme qui s'inspire du cerveau humain. 

L'apprentissage profond utilise l'intelligence artificielle et l'apprentissage automatique (IA/AA) pour aider les data scientists à collecter, analyser et interpréter de grandes quantités de données. Le processus d'apprentissage profond, également connu sous le nom d'apprentissage neuronal profond ou de réseau neuronal profond, permet aux ordinateurs d'apprendre par l'observation, en imitant la manière dont les humains acquièrent des connaissances. 

Le cerveau humain comporte de nombreux neurones interconnectés qui agissent comme des messagers lorsque le cerveau traite des informations (ou des données). Ces neurones utilisent des impulsions électriques et des signaux chimiques pour communiquer entre eux et transmettre les informations entre les différentes zones du cerveau. 

Les réseaux neuronaux artificiels (RNA), qui constituent l'architecture sous-jacente à l'apprentissage profond, sont basés sur ce phénomène biologique. Cependant, ils sont formés de neurones artificiels constitués de modules logiciels que l'on appelle des nœuds. Ces nœuds utilisent des calculs mathématiques (plutôt que des signaux chimiques) pour communiquer et transmettre des informations. Ce réseau neuronal simulé traite les données par groupe de points de données et à l'aide de prédictions.

Pour mieux comprendre, on pourrait comparer l'apprentissage profond à une sorte d'organigramme qui commence par une couche d'entrée et se termine par une couche de sortie. Entre ces deux couches se trouvent les « couches cachées » qui traitent les informations à différents niveaux. Elles ajustent et adaptent leur comportement à mesure qu'elles reçoivent de nouvelles données. Les modèles d'apprentissage profond peuvent comporter des centaines de couches cachées. Chacune d'entre elles joue un rôle dans la découverte de relations et de schémas au sein de l'ensemble de données. 

Les données sont introduites dans le modèle à partir de la couche d'entrée, composée de plusieurs nœuds, puis classées en conséquence avant de passer à la couche suivante. Le chemin que les données empruntent à travers chaque couche est basé sur les calculs mis en place pour chaque nœud. Les données se déplacent à travers chaque couche, recueillent des observations en cours de route qui façonneront le résultat, ou l'analyse finale, des données.

L'apprentissage profond fait déjà partie de notre vie quotidienne et nous l'utilisons dans de nombreux secteurs d'activité. L'IA générative, sur laquelle reposent aujourd'hui de nombreux outils d'IA, existe grâce à l'apprentissage profond.

Ses cas d'utilisation évoluent sans cesse, et il alimente aujourd'hui trois des technologies les plus fréquemment utilisées : la vision par ordinateur, la reconnaissance vocale et le traitement du langage naturel (TLN). 

  • Vision par ordinateur : les ordinateurs peuvent utiliser des techniques d'apprentissage profond pour comprendre les images de la même manière que les humains. Ils peuvent ainsi automatiquement modérer des contenus, reconnaître des visages et classer des images. 
  • Reconnaissance vocale : le timbre, le ton, la langue et l'accent sont autant d'éléments qui peuvent être analysés à l'aide de modèles d'apprentissage profond. En plus d'améliorer l'expérience des clients, cette fonction s'avère utile du point de vue de l'accessibilité lorsqu'une transcription en temps réel est nécessaire.
  • Traitement du langage naturel (TLN) : les ordinateurs utilisent des algorithmes d'apprentissage profond pour analyser et collecter des informations à partir de données textuelles et de documents. Cette technique aide à résumer de longs documents, à indexer des phrases clés qui indiquent un sentiment (comme des commentaires positifs ou négatifs) et à générer des informations pour les assistants virtuels automatisés et les chatbots. Le traitement du langage naturel est une branche qui englobe le développement et l'application de grands modèles de langage (LLM) pour comprendre et générer du langage humain.
     

Voici quelques exemples de la façon dont les différents secteurs d'activité utilisent les principes de l'apprentissage profond :

  • Service clientèle : les chatbots, les assistants virtuels et les portails de services à la clientèle utilisent des outils comme la reconnaissance vocale. 
  • Services financiers : les analyses prédictives alimentent les algorithmes de la Bourse, évaluent les risques commerciaux pour l'approbation des prêts, détectent les fraudes et aident à gérer les portefeuilles de crédit et d'investissement.
  • Secteur de la santé : avec la numérisation des dossiers médicaux, les applications de reconnaissance d'images peuvent aider les techniciens en imagerie médicale dans leur travail en apprenant à détecter automatiquement les éléments inquiétants à soumettre aux médecins pour examen. Découvrez comment HCA Healthcare utilise les analyses prédictives pour établir une approche numérique et standardisée afin de détecter les cas de septicémie. 
  • Médias et divertissement : des achats en ligne aux services de streaming multimédia, l'apprentissage profond est utilisé pour suivre l'activité des utilisateurs et élaborer des recommandations personnalisées.
  • Automatisation industrielle : dans les usines et les entrepôts, les applications d'apprentissage profond peuvent détecter automatiquement les personnes ou objets trop proches des machines, ou aider à contrôler la qualité ou à réaliser la maintenance prédictive. 
  • Voitures autonomes : les chercheurs du secteur automobile utilisent l'apprentissage profond pour apprendre aux voitures à détecter les piétons et des objets tels que les panneaux stop, les feux de circulation et les passages piétons.
  • Application de la loi : les technologies de reconnaissance vocale, de vision par ordinateur et de traitement du langage naturel permettent de gagner du temps et d'économiser des ressources en facilitant l'analyse des gros volumes de données. 
  • Secteur aérospatial et armée : ceux qui surveillent de vastes zones géographiques peuvent utiliser l'apprentissage profond pour détecter des objets, identifier des zones d'intérêt à distance et vérifier la sécurité de zones pour les troupes. 

Red Hat s'est associé à IBM pour créer Red Hat® Ansible® Lightspeed with IBM watsonx Code Assistant, un service d'IA générative qui aide les équipes de développement à créer des contenus Ansible plus efficacement.

L'apprentissage profond est une forme spécialisée d'apprentissage automatique qui se différencie par le type de données avec lesquelles il travaille et par les méthodes d'apprentissage qu'il utilise.

Les algorithmes classiques d'apprentissage automatique nécessitent une intervention humaine sous la forme d'un prétraitement des ensembles de données avant leur introduction dans le modèle. Certaines caractéristiques des données d'entrée doivent donc être définies et étiquetées, puis organisées en tableaux avant d'être introduites dans le modèle d'apprentissage automatique. À l'inverse, les algorithmes d'apprentissage profond se passent de ce type de prétraitement et sont capables de comprendre des données non structurées telles que des documents textuels, des images en pixels ou des fichiers de données audio. 

L'apprentissage profond s'avère plus pratique que l'apprentissage automatique classique dans les cas où le volume de données est considérable, lorsqu'il manque des informations contextuelles sur le sujet ou qu'il s'agit d'une tâche complexe et chronophage.

L'apprentissage profond fonctionne à l'aide d'une structure de nœuds qui communiquent entre eux au sein d'un réseau neuronal artificiel. Pour créer un réseau neuronal artificiel, il faut introduire des calculs et des paramètres dans le modèle en même temps que les données. De plus, il faut veiller à ce que ces calculs tiennent compte du biais et de la variance. 

Dans le contexte de l'apprentissage automatique, le biais désigne le degré d'hypothèse ou de généralisation que l'algorithme applique afin de faciliter l'apprentissage de la fonction cible. Plus le biais est élevé, plus le modèle simplifie et crée des raccourcis (à tort) lorsqu'il traite les informations. 

La variance est la mesure de la distance entre chaque point de données et la moyenne, ou la mesure statistique de l'écart entre les nombres d'un ensemble de données. Par opposition au biais, la variance renvoie à la sensibilité d'un modèle aux données d'entraînement. Quand la variance (ou la sensibilité) est élevée, le modèle accorde trop d'attention aux détails et ne tient pas compte des schémas sous-jacents dans l'ensemble de données. 

Dans le cas de l'apprentissage supervisé, lorsque la variance est trop élevée et le biais trop faible, on parle de surajustement ou de surentraînement. Lorsque le biais est élevé et la variance faible, on parle de sous-ajustement. Parce qu'il est difficile d'obtenir un ajustement parfait, il faut chercher le juste équilibre, que l'on appelle couramment le compromis biais-variance. 

Les paramètres définissent des limites, et les limites sont essentielles pour donner un sens à l'énorme volume de données que les algorithmes d'apprentissage profond doivent traiter. Ainsi, le sous-ajustement et le surajustement peuvent souvent être corrigés en utilisant plus ou moins de paramètres, respectivement. 

Prise en compte du biais humain

Si un modèle d'apprentissage profond est entraîné avec des données statistiquement biaisées ou qui ne donnent pas une représentation exacte de la population, les résultats peuvent être erronés. Malheureusement, le biais humain existant est souvent transféré à l'intelligence artificielle, avec à la clé des algorithmes potentiellement discriminatoires et des résultats biaisés. 

Plus les entreprises exploitent l'IA pour améliorer leur productivité et leurs performances, plus il est essentiel de mettre en place des stratégies pour minimiser le biais. Cette approche nécessite d'abord des processus de conception inclusifs et une prise en compte plus réfléchie de la diversité représentative au sein des données collectées. 

Boîte noire

Le terme « boîte noire » fait référence à l'étape où un programme d'IA réalise une tâche au sein de son réseau neuronal sans montrer ce qu'il fait. À ce moment-là, personne, pas même les data scientists et les ingénieurs qui ont créé l'algorithme, n'est en mesure d'expliquer exactement comment le modèle parvient au résultat qu'il propose. Le manque d'interprétabilité des modèles de boîte noire peut avoir des conséquences néfastes lorsqu'ils sont utilisés pour des prises de décisions sensibles, en particulier dans des secteurs tels que la santé, la justice pénale ou la finance. 

Les modèles d'apprentissage profond sont capables de réaliser des tâches informatiques plus complexes sans intervention humaine. Il leur faut cependant une plus grande puissance de traitement, une infrastructure suffisante et de plus gros volumes de données d'entraînement. Le cloud computing permet aux équipes d'accéder à plusieurs processeurs à la fois, tels que des clusters de GPU (unités de traitement graphique) et de CPU (unités centrales de traitement), ce qui crée un environnement idéal pour l'exécution d'opérations mathématiques complexes.

Grâce à la conception, au développement et à l'entraînement des modèles d'apprentissage profond dans le cloud, les équipes de développement peuvent faire évoluer et distribuer les charges de travail avec rapidité et précision, tout en réduisant les coûts d'exploitation. 

 

Apprentissage profond et apprentissage automatique en périphérie du réseau

L'utilisation du cloud ouvre des possibilités d'apprentissage automatique pour l'edge computing. Grâce à la mise en place de hubs d'edge computing connectés à des ressources de cloud public, les informations peuvent être saisies et analysées en temps réel pour faciliter l'exploitation, que ce soit pour des mises à jour de l'état de la chaîne d'approvisionnement ou des informations sur les sites d'évacuation en cas de catastrophe. 

 

Notre gamme de produits offre à vos équipes une base commune pour créer et déployer des applications d'IA et des modèles d'AA, de manière transparente et contrôlée. 

Red Hat® OpenShift® AI est une plateforme conçue pour l'entraînement, le réglage des commandes, l'ajustement des requêtes et la distribution de modèles d'IA qui reposent sur vos données et sont adaptés à votre cas d'utilisation.

Pour les déploiements à grande échelle, la solution Red Hat OpenShift offre une plateforme d'applications évolutive qui convient aux charges de travail d'IA, avec un accès aux principaux accélérateurs matériels.

Chez Red Hat, nous nous appuyons aussi sur nos outils Red Hat OpenShift AI pour optimiser d'autres logiciels Open Source, à commencer par Red Hat Ansible® Lightspeed with IBM watsonx Code Assistant. Ce service aide les équipes d'automatisation à apprendre, créer et gérer des contenus Ansible plus efficacement. Il reçoit les requêtes saisies par un utilisateur, puis interagit avec les modèles de fondation IBM watsonx pour générer des recommandations de code qui sont ensuite utilisées pour créer des playbooks Ansible.

Enfin, les intégrations des partenaires Red Hat ouvrent la voie à un écosystème d'outils d'IA fiables et compatibles avec les plateformes Open Source.

Pour aller plus loin

Article

L'IA générative, qu'est-ce que c'est ?

L'IA générative s'appuie sur des modèles d'apprentissage profond entraînés avec de grands ensembles de données pour créer des contenus.

Article

L'apprentissage automatique, qu'est-ce que c'est ?

L'apprentissage automatique est une technique qui consiste à entraîner un ordinateur à identifier des schémas, à établir des prédictions et à apprendre à partir d'expériences passées sans programmation explicite.

Article

Un modèle de fondation, qu'est-ce que c'est ?

Un modèle de fondation est un type de modèle d'apprentissage automatique (AA) qui est pré-entraîné pour réaliser une série de tâches. 

En savoir plus sur l'IA/AA

Produits

Gamme de produits pour l'IA qui fournit des outils pour entraîner, ajuster, distribuer, surveiller et gérer des expériences et des modèles d'intelligence artificielle/apprentissage automatique (IA/AA) sur Red Hat OpenShift.

Plateforme d'applications d'entreprise qui inclut un ensemble unifié de services testés conçus pour distribuer des applications sur l'infrastructure de votre choix. 

Red Hat Ansible Lightspeed with IBM watsonx Code Assistant est un service d'IA générative conçu par et pour les professionnels de l'automatisation, les équipes d'exploitation et les développeurs qui travaillent avec Ansible. 

Ressources

Livre numérique

Éléments importants pour la création d'un environnement d'IA/AA prêt pour la production

Rapport d'analyste

The Total Economic Impact™ of Red Hat Hybrid Cloud Platform for MLOps

Webinar

Getting the most out of AI with open source and Kubernetes