Comment le cloud d'Amazon entend défier OpenAI et Microsoft

Comment le cloud d'Amazon entend défier OpenAI et Microsoft A l'occasion de son événement mondial, le groupe annonce son propre ChatGPT. Le cloud de Seattle intègre également la recherche intelligente.

Amazon Web Services (AWS) compte bien reprendre l'ascendant sur Microsoft et son partenaire OpenAI dans l'IA générative. Lors d'AWS Re:Invent, son événement mondial qui se tient du 27 novembre au 1er décembre à Las Vegas, AWS a déroulé une série d'annonces sur ce terrain. La principale d'entre elles ? Le lancement en préversion de l'assistant intelligent Amazon Q. Il s'agit d'un équivalent de ChatGPT, mais privé et taillé pour s'adapter à chaque contexte d'organisation. AWS vient ainsi directement concurrencer le service Azure OpenAI qui permet d'utiliser ChatGPT sur le cloud de Microsoft.

"Amazon Q est conçu pour indexer toutes les sources de connaissances de l'entreprise", commente Stephan Hadinger, directeur head of technology chez AWS. Salesforce, Microsoft 365, Google Workspace, Box, GitHub… L'assistant est taillé pour se connecter à plus de 40 applications. "L'objectif est d'en faire l'agent qui a l'expertise métier, auquel tout salarié peut s'adresser, quelle que soit sa fonction", complète Stephan Hadinger.

Amazon Q décliné dans plusieurs produits

AWS décline par ailleurs Amazon Q dans plusieurs produits. L'assistant a notamment été combiné au générateur de code CodeWhisperer pour répondre à des questions connexes à un projet de développement. Il fera également son apparition dans la console AWS à des fins de support technique. Il est aussi intégré à Amazon Connect pour apporter de l'aide aux agents utilisant la solution de centre de contact d'AWS. Enfin, il est associé à la solution de business intelligence Amazon QuickSight. Objectif : transformer les données brutes en infographies ou encore générer des analyses à partir de requêtes saisies en langage naturel.

"Le Rag améliore la maitrise des données manipulées. Ce qui contribue au final à réduire les risques d'hallucination"

Autre annonce massive, AWS introduit la recherche intelligente ou retrieval-augmented generation (RAG). Une technique qui permet d'injecter de nouveaux contenus dans la base vectorielle d'un modèle. Principal avantage : une fois cette tâche réalisée, le modèle peut ensuite glaner directement ses réponses au sein des contenus ainsi injectés. Exit la phase de réentrainement. "Cette technique améliore la maitrise des données manipulées. Ce qui contribue au final à réduire les potentielles erreurs dans les résultats et les risques d'hallucination", précise Stephan Hadinger.

Le RAG est intégré à la plateforme d'IA générative Amazon Bedrock via l'ajout d'une base vectorielle baptisée Knowledge base. Cette dernière permet d'intégrer les contenus directement par le biais du service de stockage Amazon S3 ou via une base vectorielles tierce. "Il pourra s'agir d'OpenSearch, Redis ou Pinecone", précise Stephan Hadinger. L'ensemble du process est piloté par API. En préversion depuis quelques semaines, Amazon Bedrock Knowledge base est désormais disponible en version finale.

Cap sur les Nvidia H200

Là encore, AWS comble son retard avec Microsoft qui supporte le RAG via Azure Cosmos DB depuis mai 2023. Une solution que le groupe de Redmond a complété récemment par une seconde base vectorielles baptisée Azure AI Search.

Dans le cadre de son partenariat avec Nvidia, AWS annonce par ailleurs son intention d'introduire très prochainement des instances motorisées par la carte graphique H200. Un composant 18 fois plus performant que la version précédente (H100). Ce GPU devrait également faire son apparition dans les prochaines semaines sur le cloud de Microsoft, mais également sur celui de Google.