Veille en matière de technologies émergentes

Questions d’actualité sur l’IA et les technologies émergentes

Les experts Gartner apportent des réponses succinctes aux questions récemment posées par nos clients sur certaines technologies émergentes.

Juin 2025

 


Qu’est-ce que l’IAG et en quoi se distingue-t-elle de l’IA faible ?

L’IAG, telle que définie par Gartner, désigne une forme d’intelligence artificielle encore hypothétique, capable d’égaler ou de dépasser les compétences cognitives humaines dans la plupart des domaines. Elle sera en mesure d’évoluer de façon autonome, en apprenant et en s’adaptant à des environnements physiques et virtuels variés, dans le but d’atteindre des objectifs, qu’ils soient définis en amont ou découverts en cours de route.

L’IA faible a pour vocation de réaliser des tâches bien définies (comme la reconnaissance d’images, la traduction de langues ou encore la pratique du jeu d’échecs) ou de répondre à des problématiques spécifiques. L’IA faible s’appuie généralement sur un apprentissage supervisé et ne peut fonctionner qu’à partir des données d’entraînement dont elle dispose. Incapables d’apprendre ou de s’adapter en dehors de leur cadre de programmation et d’apprentissage initial, ces systèmes manquent de flexibilité dans des contextes qu’ils ne peuvent anticiper.

L’IAG reste pour l’instant théorique : aucun système actuel n’en incarne les capacités. Bien que le développement de l’IAG s’inscrive dans une dynamique de progrès ambitieux en recherche et innovation, il suscite des interrogations majeures d’ordre éthique, sociétal et réglementaire. Bien que Gartner n’anticipe pas l’émergence de l’IAG avant dix ans, les étapes intermédiaires du développement de cette technologie offriront déjà des opportunités concrètes de création de valeur commerciale.

L’objectif de l’AGI ne devrait pas être de reproduire l’intelligence humaine, mais bien d’ouvrir la voie à de nouvelles formes de valorisation et d’innovation. Elle ne doit pas non plus se transformer en une intelligence supérieure et autonome : la technologie, aussi puissante soit-elle, doit rester ancrée dans une finalité essentielle et servir à renforcer les capacités humaines plutôt qu’à les surpasser. Dans l’hypothèse où l’IAG verrait le jour, nous estimons qu’elle trouverait sa forme la plus pertinente dans l’orchestration d’une multitude d’agents IA faible, donnant naissance à une forme d’intelligence collaborative et synergique.

Découvrez plus en détail comment Gartner est en mesure de vous accompagner

Veuillez remplir le formulaire pour être contacté par Gartner et découvrir comment nous évaluons les technologies émergentes, telles que l’IA, et proposons des outils qui vous aideront à les sélectionner, à les acquérir et à les mettre en œuvre.

En cliquant sur "Continuer", vous acceptez les conditions d'utilisation et la politique de confidentialité de Gartner.

Quel est l’état d’avancement de l’IA agentique et quelle est la feuille de route de son adoption ?

De : Danielle Casey

À l’heure actuelle, seuls 6 % des services d’entreprise spécialisés dans les infrastructures et opérations (I&O) ont atteint le plus haut niveau de maturité, une condition essentielle pour réussir pleinement l’adoption de l’IA agentique. Dans la majorité des cas, l’IA agentique se limite encore à des déploiements ponctuels, apportant certes quelques gains, mais sans effet transformateur réel.

Pour exploiter pleinement tout le potentiel de l’IA agentique, les entreprises doivent s’engager dans une démarche structurée, articulée autour de plusieurs leviers complémentaires :

  • Évaluation et préparation : la première étape consiste à établir un diagnostic précis de votre environnement actuel, en identifiant les lacunes dans vos infrastructures et vos modèles opérationnels susceptibles d’entraver l’adoption de l’IA agentique. Cela passe notamment par une analyse de la qualité de vos données, des dispositifs de gouvernance et des capacités technologiques en place.

  • Vision stratégique : élaborez une vision structurée de l’IA agentique, centrée sur l’identification des entraves aux processus décisionnels et sur les leviers qu’offre cette technologie pour les surmonter. Cette vision doit être harmonisée sur le modèle d’exploitation global de l’entreprise régissant les systèmes d’information.

  • Investissements au niveau des infrastructures : les investissements à venir doivent viser à assurer la compatibilité des environnements technologiques avec l’IA agentique, en privilégiant des infrastructures et des plateformes intelligentes aptes à prendre en charge des agents d’IA dotés de capacités autonomes.

  • Gouvernance et gestion : définissez un dispositif de gouvernance structuré, incluant la création d’un CoE réunissant des professionnels de l’informatique, des spécialistes de la technologie et des dirigeants. Ce centre aura pour mission d’encadrer la mise en œuvre et le déploiement à grande échelle des projets relatifs à l’IA agentique.

  • Amélioration continue : procédez à une réévaluation régulière de votre niveau de maturité en matière d’IA et faites évoluer vos orientations stratégiques au rythme des avancées technologiques et des dynamiques du marché. Une révision annuelle de cette évaluation constitue un bon levier pour assurer que vos capacités et vos ambitions sont bien en phase.

  • Mise en œuvre et itération : après avoir obtenu les financements et défini un plan d’exécution clair, engagez la mise en œuvre des stratégies de manière progressive et agile.

Quelle enveloppe budgétaire consacrer aux processeurs graphiques (GPU) afin d’accompagner l’essor de l’IA au cours des trois prochaines années ?

Adoptez une stratégie d’investissement globale articulée autour de cinq piliers essentiels :

1. Planification de l’infrastructure : Misez sur des IaaS spécifiquement optimisées pour l’IA, un marché appelé à connaître une forte croissance au cours des trois prochaines années. L’objectif est de soutenir efficacement les charges de travail de l’IA en capitalisant sur la capacité d’adaptation du cloud et sur des modèles de tarification à la consommation. Mettez en œuvre des architectures de supercalcul pour l’IA, combinant accélérateurs spécialisés, stockage haute performance et connectivité réseau ultra-rapide. Ces infrastructures sont indispensables pour prendre en charge les volumes de calcul distribués à grande échelle nécessaires à l’entraînement des modèles d’IA générative.

2. Acquisition et gestion des GPU : exploitez des fonctionnalités telles que la planification dynamique des charges de travail et le partage des ressources pour optimiser l’utilisation des processeurs disponibles. Cette approche est d’autant plus cruciale que les tensions au niveau de l’approvisionnement persistent et en raison de la croissance continue des besoins en traitement d’inférence. Par ailleurs, limitez les coûts de transition entre processeurs graphiques traditionnels et processeurs d’IA optimisés pour le cloud, en misant sur des standards ouverts et des écosystèmes interopérables.

3. Optimisation du réseau et du stockage : déployez des réseaux dédiés aux charges de travail IA, offrant une connectivité à faible latence et sans perte. Cela inclut l’utilisation de technologies telles qu’InfiniBand ou l’ethernet haut débit pour assurer une interconnexion efficace des processeurs graphiques. Mettez également en place des solutions de stockage à haut débit et faible latence, telles que les systèmes de fichiers parallèles ou le stockage objet. Ces infrastructures doivent être capables de gérer les volumes massifs de données nécessaires à l’entraînement et à l’inférence des modèles d’IA.

4. Maîtrise des coûts et efficacité opérationnelle : intégrez des outils de supervision permettant de suivre l’utilisation des processeurs graphiques ainsi que la consommation énergétique, afin d’optimiser la gestion des dépenses informatiques tout en renforçant l’efficience de vos opérations. Étant donné que les charges de travail IA peuvent fortement accroître la consommation d’énergie, envisagez d’investir dans des technologies de refroidissement avancées (telles que le refroidissement par immersion) afin de maîtriser la forte densité énergétique des infrastructures de calcul dédiées à l’IA.

5. Formation et perfectionnement : Développez des programmes de formation à destination des équipes infrastructures et opérations (I&O) afin de renforcer leurs compétences dans la gestion des environnements IA, notamment en matière de rédactique et de conception de centres de données adaptés à l’IA.

Quels sont les éléments importants à prendre en compte lors de la création d’un CoE en IA ?

La création d’un CoE dédié à l’IA s’inscrit dans une démarche structurante, destinée à accélérer l’appropriation et la mise à l’échelle des technologies d’IA. Parmi les étapes et éléments clés à prendre en compte ;

  • Mobiliser un appui stratégique au sein de la haute direction : désigner un dirigeant référent impliqué dans les projets du centre d’excellence, capable de lever les entraves organisationnelles et de porter la vision du CoE auprès des autres chefs d’entreprise.

  • Définir les objectifs et le champ d’action du CoE : élaborer conjointement une charte détaillée précisant les finalités, les principes directeurs, les rôles, les indicateurs de performance et les modalités de communication, en cohérence avec les priorités stratégiques de l’entreprise. Définissez également des critères de réussite spécifiques, mesurables et pertinents pour les instances dirigeantes.

  • Constituer une équipe pluridisciplinaire : veillez à valoriser un état d’esprit généraliste et à ne pas centrer exclusivement l’approche sur la technologie. Intégrez des profils aux compétences variées (mêlant expertise technique et compétences relationnelles/savoir-être) tels que des architectes IA, des experts en science des données ou encore des spécialistes de la conduite du changement, afin d’assurer une gestion efficace des activités du CoE. Solliciter des consultants sur les premières phases peut accélérer la montée en compétences des équipes internes et structurer durablement le partage d’expertise.

  • Sélectionner des indicateurs pertinents : identifier des indicateurs réellement significatifs, ils doivent couvrir l’ensemble du cycle, des intrants aux résultats permettant une évaluation rigoureuse des performances, en assurant la cohérence avec les objectifs de l’entreprise et en traduisant les indicateurs technologiques en résultats opérationnels concrets.

  • Choisir une structure organisationnelle évolutive : en phase avec la maturité croissante de l’entreprise. On distingue généralement trois grands modèles d’organisation : centralisé, décentralisé et fédéré.

  • Instaurer une culture axée sur l’amélioration continue : investir dans des parcours de formation ciblés pour développer les expertises clés au sein du CoE. Créer une culture d’appréciation qui valorise les réussites en encourageant l’implication de chacun.

  • Capitaliser sur les ressources et outils existants : évaluer l’écosystème technologique en place pour identifier les leviers activables dans le cadre des projets IA, et s’appuyer sur des partenariats technologiques ciblés pour étendre les capacités du CoE.

  • Déployer une plateforme de connaissances mutualisées (modèle Innovation as a Service) : regroupant guides stratégiques, référentiels techniques, contenus pédagogiques et cas représentatifs, accessibles à l’échelle de l’entreprise.

  • Surveiller et évaluer les performances : organiser des enquêtes ciblées pour mesurer l’impact du CoE et orienter les actions d’amélioration continue. Se concentrer sur des indicateurs qui reflètent des résultats durables et pas uniquement des gains d’efficacité immédiats Communiquer régulièrement les résultats et les réussites du CoE aux instances dirigeantes afin de garantir un soutien durable et une reconnaissance continue.

Dans quelle mesure peut-on se fier à des robots intégrant l’IA pour exécuter des tâches sensibles ou critiques sans compromettre la sécurité ?

L’IA suscite encore beaucoup de méfiance, notamment en raison de l’effet « boîte noire » : les résultats sont visibles, mais les mécanismes qui les produisent restent souvent opaques ou incompréhensibles. Le manque de confiance, de maîtrise des risques et de sécurité liés à l’IA (AI Trust, Risk and Security, AI TRiSM) est accentué par l’absence de visibilité sur les données sous-jacentes utilisées par les modèles pour produire leurs résultats. Il incombe en définitive aux humains d’assumer la responsabilité du comportement des robots dotés d’IA, afin d’assurer un fonctionnement sûr, éthique et aligné sur l’intérêt général.

Que l’on évalue des robots exploitant l’IA ou d’autres applications de l’IA, Gartner formule les recommandations suivantes :

  • Établir une collaboration étroite avec les parties prenantes clés (architecture d’entreprise, direction informatique, RH, services juridiques et responsables des données/analyses) pour favoriser l’adoption de plateformes de gouvernance de l’éthique de l’IA plus robustes. Donner une portée concrète aux principes éthiques fondamentaux en les inscrivant pleinement dans la stratégie de gestion de l’IA de l’entreprise

  • Pour répondre aux enjeux éthiques soulevés par le développement et l’utilisation de l’IA, il est recommandé d’intégrer un spécialiste de l’éthique de l’IA au sein de l’équipe centrale, et/ou de constituer un comité d’éthique digital chargé d’évaluer les cas présentant une incertitude morale ou contextuelle et d’en affiner l’interprétation.

  • Mettre en œuvre un dispositif de supervision continue des systèmes d’IA, fondé sur un programme de tests robuste et conforme aux principes éthiques de base, pour prévenir les dérives potentielles, notamment sur le plan juridique.

Comment les pannes de cloud mettent-elles en évidence le besoin de technologies émergentes qui améliorent la résilience ?

De : Nathan Hill

La panne de Google Cloud de juin 2025 rappelle que même les fournisseurs de cloud les plus avancés ne sont pas à l’abri des interruptions. Le recours à un fournisseur de cloud ne dispense pas de mener une planification approfondie de la continuité des activités (BCP) et de la reprise après sinistre (DR), ni d’évaluer la résilience et l’architecture du prestataire choisi. Les technologies émergentes telles que le réseautage multicloud optimal, l’observabilité cloud-native et la remédiation autonome aident les organisations à réduire leur dépendance à un seul fournisseur et à réagir plus rapidement aux incidents. À mesure que l’utilisation du cloud s’intensifie, les responsables I&O et les DSI doivent faire de la résilience une priorité stratégique, en évaluant les technologies qui renforcent la disponibilité, la visibilité et l’isolation des pannes dans des environnements cloud hybrides complexes.

Pour en savoir plus, assistez à notre webinaire : Guide du DSI et des responsables I&O : Prendre des décisions sur la stratégie single-cloud vs. multicloud

Avril 2025

Qu’est-ce que l’agent IA Manus ? Peut-il être utilisé dans le cadre d’applications professionnelles ?

De : Daniel Sun

Développé par la start-up chinoise Monica.im et lancé le 6 mars 2025, Manus AI est un assistant LLM polyvalent susceptible d’évoluer pour devenir un agent IA polyvalent. Cet assistant constitue une avancée technologique dans le domaine de l’IA, avec pour objectif d’améliorer la collaboration entre l’homme et la machine et l’automatisation des tâches des applications IA. 

Informations pertinentes pour les DSI concernant Manus AI

  • Capacité : Manus AI propose un large éventail de fonctionnalités, parmi lesquelles l’automatisation des tâches, le traitement des données, l’analyse et la prise de décision, ainsi que la génération de contenu. Manus AI peut également apprendre de ses interactions et adapter ses actions en conséquence, par exemple en suggérant lui-même des tâches ou en modifiant ses propositions en fonction d’un nouveau contexte.

  • Technologie : Manus AI s’appuie sur des LLM existants, notamment Claude d’Anthropic et Qwen d’Alibaba, et fait appel à une architecture composée de plusieurs agents. Cela lui permet de recourir à divers outils et logiciels open-source, enrichissant ainsi ses capacités d’exécution des tâches et d’interaction avec les API.

  • Interface utilisateur : Un chatbot offrant une expérience utilisateur simplifiée permet aux utilisateurs d’interagir avec l’IA alors que celle-ci gère des tâches en arrière-plan.

  • Applications : Les applications potentielles de Manus AI pour les entreprises comprennent la rationalisation de processus complexes, le renforcement de l’engagement des clients grâce à des réponses automatisées et une assistance dans des tâches telles que l’analyse financière.

  • Défis : En revanche, il peut être difficile de garantir la stabilité opérationnelle, car Manus AI s’appuie sur des systèmes et des API de tiers, ce qui peut présenter des risques dans les environnements d’entreprise. Il peut également susciter certaines craintes sur le plan de l’éthique et de la réglementation. Celles-ci comprennent notamment des questions de transparence et de responsabilité dans les cas où l’IA prend des décisions importantes et où des incertitudes subsistent quant à la provenance de ses données et à ses mécanismes opérationnels. Son modèle de tarification n’est pas clairement défini.

Que sont les petits modèles de langage ? Quelles sont les différences entre les SLM et les LLM ?

De : George Brocklehurst

Les SLM sont une catégorie de modèles de langage qui sont conçus de manière à proposer des solutions alternatives plus efficaces et plus rentables que les LLM. 

Les SLM comptent en moyenne 10 milliards de paramètres. Ces modèles sont particulièrement appréciables lorsqu’ils sont adaptés à des tâches et à des domaines spécifiques. Leur plus petite taille les rend plus faciles à optimiser et à déployer que leurs homologues LLM.

Avantages potentiels des SLM

  • Rentabilité : les SLM sont relativement peu coûteux à mettre au point et à utiliser, ce qui les rend intéressants pour les entreprises dont le budget est limité.

  • Efficacité : ils requièrent beaucoup moins de ressources informatiques, ce qui permet de les déployer sur des appareils, dans des environnements sur site ou dans des clouds privés, améliorant ainsi la confidentialité et la sécurité des données.

  • Spécialisation dans la réalisation de certaines tâches : lorsqu’ils sont adaptés à une application spécifique et configurés avec précision pour cette mise en œuvre, ils peuvent être plus performants que les modèles de plus grande taille. Ils sont donc particulièrement indiqués dans des situations où il n’est pas nécessaire de disposer de capacités linguistiques plus étendues.

Exemples d’utilisation de petits modèles de langage

  • Les SLM sont parfaitement adaptés aux applications qui supposent un grand nombre d’interactions avec les utilisateurs, des contraintes en matière de temps de latence et des situations où des données sensibles sont en jeu. Ils peuvent être utilisés efficacement dans des chatbots documentaires, des applications de service client et des modèles linguistiques pour les entreprises.

  • Ils peuvent également être intégrés dans des systèmes exploitant différents modèles, où plusieurs modèles spécialisés dans une tâche spécifique fonctionnent conjointement pour répondre à des problématiques complexes.

SLM par opposition aux LLM

Bien que les SLM ne puissent pas rivaliser avec les capacités génériques de raisonnement et de génération de langage des LLM, ils excellent dans des applications spécifiques où leur plus petite taille et leurs exigences moins importantes en termes de ressources leur confèrent un avantage considérable. 

Les SLM permettent de mettre en œuvre de manière pratique et efficace des solutions d’IA générative, en particulier pour les entreprises qui désirent disposer de capacités spécialisées sans pour autant avoir à assumer les frais généraux liés à des modèles plus volumineux. C’est pourquoi l’adoption des SLM est appelée à se développer. Gartner estime que d’ici 2026, davantage de requêtes et demandes de l’IA générative seront traitées sur les appareils plutôt que dans le cloud, ce qui permettra aux assistants intelligents et à d’autres applications proactives de voir le jour.

Comment l’IA fait-elle évoluer l’environnement des dispositifs en périphérie ?

De : Christian Stephan

Les dispositifs périphériques modernes sont aujourd’hui toujours plus performants et aptes à exécuter des algorithmes complexes. Dans le même temps, l’IA s’adapte et se transforme pour s’adapter aux capacités de ces dispositifs, ouvrant ainsi la voie à des applications plus intelligentes, plus efficaces et plus autonomes. À mesure que les modèles d’IA progresseront, nous assisterons à des améliorations significatives en termes d’efficacité de l’inférence sur les appareils dotés d’une capacité de calcul limitée. Nous pouvons également nous attendre à une intégration encore plus poussée, qui stimulera l’innovation dans divers secteurs.

Incidences notables de l’IA sur les dispositifs périphériques

  • Traitement en temps réel : l’IA permet aux dispositifs périphériques d’effectuer localement le traitement et l’analyse des données en temps réel, ce qui réduit la latence et l’utilisation de la bande passante et élimine toute dépendance vis-à-vis de l’infrastructure réseau. Cet aspect est déterminant pour les applications qui nécessitent une prise de décision immédiate et des processus robustes, comme dans le cas des véhicules autonomes et de l’automatisation industrielle.

  • Confidentialité et sécurité : en traitant les données localement, l’IA apporte une réponse aux préoccupations en matière de confidentialité, car les informations sensibles n’ont pas besoin d’être transmises vers le cloud, mais sont traitées lors de l’exécution sans que les données brutes ne soient stockées. C’est particulièrement pertinent pour le traitement des informations à caractère personnel, telles que les données biométriques, ou dans d’autres secteurs fortement réglementés, où la souveraineté des données est au cœur des préoccupations.

  • Intégration avec l’Internet des objets (IoT) : Les dispositifs périphériques s’intègrent de plus en plus dans les réseaux maillés de l’IoT, favorisant ainsi des opérations plus intelligentes et autonomes. L’intégration de l’IA en périphérie permet aux dispositifs d’apprendre de leur environnement et d’améliorer leurs performances au fil du temps, ce qui se traduit à la fois par des opérations plus efficaces et une meilleure expérience utilisateur.

  • Utilisation de techniques avancées : des techniques telles que Tiny Machine Learning (TinyML), l’apprentissage par transfert et l’apprentissage fédéré sont utilisées pour optimiser l’entraînement des modèles destinés aux dispositifs périphériques. Ces avancées permettent aux dispositifs périphériques d’effectuer des tâches de machine learning sans avoir besoin de ressources informatiques importantes.

  • Rentabilité : en réduisant le besoin de transmission de données vers des systèmes centralisés, l’IA en périphérie peut réduire les coûts opérationnels à long terme, tout en augmentant initialement les dépenses d’investissement. Cela est particulièrement avantageux pour les applications qui traitent de grands volumes de données, mais qui n’ont besoin de transférer que des synthèses fédérées ou agrégées, car les besoins en bande passante et les coûts associés sont minimisés par rapport au traitement de l’ensemble des données dans le cloud.

  • Évolutivité et flexibilité : l’IA renforce l’évolutivité des solutions en périphérie en permettant un traitement et une prise de décision décentralisés. De nouveaux nœuds peuvent être ajoutés à la périphérie sans augmenter de manière significative les besoins en matière d’évolutivité des structures informatiques centrales. Cette flexibilité est indispensable pour s’adapter à divers usages dans différents secteurs, des villes intelligentes aux soins de santé.

  • Efficacité énergétique : le traitement des données directement sur l’appareil périphérique réduit considérablement la consommation énergétique globale de l’ensemble de l’infrastructure réseau. Cela est possible grâce à la minimisation du trafic superflu et à l’élimination des étapes de traitement supplémentaires, tels que les algorithmes de protection des données brutes sensibles.

  • Une infrastructure flexible : les dispositifs périphériques intégrant l’IA peuvent faire partie de structures composites plus vastes afin de fournir des fonctionnalités avancées via des intégrations cloud-périphérie bidirectionnelles. Cela permet d’assurer la synchronisation avec des orchestrations de plus grande envergure tout en conservant une exécution locale.

En quoi les modèles d’IA spécialisés dans un domaine particulier diffèrent-ils des LLM génériques dans le cadre d’une utilisation par les entreprises ?

De : Tsuneo Fujiwara

Les modèles d’IA spécialisés dans un domaine (Domain-specific AI Models, DSAM) et les LLM ont des objectifs différents et présentent des caractéristiques distinctes qui les rendent adaptés à diverses applications d’entreprise. Alors que les LLM sont conçus pour être utilisés indifféremment de la nature de la tâche, du problème ou du défi à relever, les DSAM sont conçus pour répondre à des problématiques propres à un secteur, une fonction métier ou une catégorie de problèmes (optimisation des ressources). Ainsi, la méthodologie utilisée pour leur entraînement et les avantages apportés par chacun des modèles seront distincts.

Différences notables entre les modèles d’IA spécialisés et les LLM génériques

Objectif et spécialisation

  • DSAM : conçus pour des secteurs, des fonctions commerciales ou des tâches spécifiques, et optimisées pour appréhender et générer des contenus pertinents dans des domaines particuliers, tels que la santé, la finance ou le droit, ces modèles offrent une précision, une fiabilité et une compréhension contextuelle accrues.

  • LLM génériques : conçus pour traiter un large éventail de tâches dans divers domaines, ils excellent dans la compréhension et la génération du langage général.

Données d’entraînement

  • DSAM : souvent perfectionnés à partir d’ensembles de données spécifiques à leur domaine cible, ces modèles apprennent les nuances et la terminologie propres à ce domaine. Cette approche permet de réduire considérablement le recours à la rédactique (prompt engineering) et améliore les performances du modèle dans des tâches spécifiques.

  • LLM génériques : ils sont entraînés sur de grandes quantités de données textuelles non balisées provenant de sources diverses, ils disposent ainsi de capacités étendues.

Efficacité en termes de coûts et de ressources utilisées

  • DSAM : ils sont généralement plus rentables pour les entreprises, car ils requièrent moins de puissance de calcul et de données pour être optimisés par rapport aux LLM génériques, ce qui facilite leur déploiement et leur maintenance, en particulier dans les environnements aux ressources limitées.

  • LLM génériques : leur déploiement et leur optimisation peuvent nécessiter beaucoup de ressources, notamment davantage de paramètres, de ressources énergétiques et financières pour atteindre le même niveau de performance que les DSAM. 

Cas d’utilisation

  • DSAM : ils sont particulièrement adaptés aux applications qui impliquent une connaissance approfondie d’un domaine spécifique, comme le diagnostic médical, l’analyse de documents juridiques ou les prévisions financières. Ils peuvent fournir des résultats plus pertinents et plus précis pour ces tâches spécialisées.

  • LLM génériques : ils conviennent à un large éventail de tâches générales, telles que la création de contenu, la synthèse et la recherche d’informations pour les agents conversationnels.

Qu’est-ce que le MCP et en quoi facilite-t-il le fonctionnement des agents IA ?

De : Gary Olliffe

À mesure que les entreprises cherchent à mettre en œuvre des agents IA capables d’effectuer des tâches plus complexes dans l’ensemble des flux de travail et des processus, ces agents devront accéder à diverses données, informations et ressources opérationnelles. Le protocole MCP est une interface standard ouverte qui définit une méthode cohérente et agile permettant de mettre en relation les applications et les agents IA afin qu’ils puissent accéder à ces ressources. 

Le protocole MCP définit la manière dont les applications IA accèdent à d’autres ressources (telles que les référentiels d’informations, les API et d’autres applications) et interagissent avec celles-ci, indépendamment du modèle et de l’application. Alors que les agents d’IA évoluent pour devenir des systèmes collaboratifs autonomes, ils sont de plus en plus sollicités pour automatiser les tâches, accroître la productivité et gérer des processus opérationnels complexes qui nécessitent une intégration flexible.

Sans le protocole MCP, chaque infrastructure ou plateforme d’application IA définira sa propre approche propriétaire pour connecter des ressources externes à l’IA. Avec le protocole MCP, les entreprises pourront partager des ressources entre diverses applications IA de manière cohérente et facilement gérable, ce qui réduira les doublons et permettra aux développeurs et aux utilisateurs de connecter leurs applications IA aux ressources les mieux adaptées à une tâche ou à un usage particulier. 

Dans le domaine du développement logiciel, par exemple, les agents prendront en charge des tâches telles que la modernisation du code, l’automatisation des tests et la résolution des problèmes. Il est essentiel que chaque agent dispose des outils et du contexte appropriés à chaque étape pour garantir efficacité et précision. Le MCP offre un mécanisme standard pour intégrer ces capacités dans des applications d’IA standard ou développées sur mesure.

Les agents IA gagnant en autonomie et devenant toujours plus interdépendants, les responsables informatiques doivent évaluer si leurs architectures d’IA sont conçues pour prendre en charge une intégration flexible dans un contexte partagé. Le MCP doit encore faire ses preuves et évoluer rapidement pour répondre aux besoins des entreprises, mais sa popularité croissante souligne la nécessité de disposer d’une interface standard permettant aux applications et agents IA basés sur des LLM de se connecter à un environnement contextuel externe.

Favorisez la concrétisation de
vos priorités stratégiques décisives.

TOP