API de récupération de passages

L’API conçue pour les entreprises qui veulent une IA générative fondée sur un contenu fiable.

Son rôle : permettre à vos applications d’IA générative de récupérer les bons passages dans vos contenus d’entreprise pour alimenter vos modèles de langage et vos applications personnalisées.
Welcome to the Coveo Passage Retrieval API demo. I'm gonna show you how a user query triggers the Passage Retrieval API and flows through to enhance the responses of different large language models. The Passage Retrieval API is the perfect solution for organizations considering building their own AI applications or leveraging AI agents because it takes care of the most complex, resource intensive, and risky part, retrieving accurate information to feed the LLM or AI agent. I'm gonna show you how easy it is to use this API to enhance the accuracy, relevance, and security of any generative AI experience, reducing hallucinations, protecting sensitive data, and significantly accelerating time to value. Right now you can see in the configuration window that we're using an existing query pipeline in our demo AI, Barca Group, which is a boating equipment manufacturer selling direct to consumers via retail locations and online. Let's start with a common scenario, entering a query like boat battery problem. The API instantly retrieves relevant text chunks, not full documents, along with source links and relevance scores, so your AI applications have reliable, current, and citable information for generated responses. Next, we see that these chunks are fed into a large language model AI ChatGPT or Gemini using a custom prompt, which for this use case would be managed by you, the customer. For instance, you might want a standard customer service tone in one application and a playful sassy pirate tone in another. Here in our testing tool, we are comparing multiple LLMs side by side to see how each one interprets the same source information. With the Passage Retrieval API, Coveo takes care of the complex retrieval of knowledge and you, the customer, can choose the LLM and its settings as well as tune the prompts to deliver exactly the kind of answers you want for your specific use case and audience. This is what makes passage retrieval so powerful. You have full control over the UI, prompt engineering, LLM choice, and its parameters. And we at Coveo make the indexing and retrieval easy and precise, especially for those who already have a Coveo index already implemented. You can create new query pipelines or use existing ones and still have the ability to fine tune them by applying weightings and business rules or leveraging machine learning like automatic relevance tuning. If your organization has unique compliance or security rules, those constraints are already handled by the Coveo search pipeline before anything is sent to the LLM. You could add any sort of metadata into the context of the query, from user access permissions to their role, country, and language, or even interaction data to signal intent. Now, the studio environment I showed you is just a testing tool we've developed internally as a way to show how the API works. But in a real world scenario, you'd of course leverage the API in your own applications and testing tools. By building Agentic apps using Coveo, you tap into the power of the Coveo AI Relevance platform, leveraging our connectors to third party data sources, hybrid ranking, security features, and decades of building enterprise grade search and retrieval and machine learning models. By delivering precise, trustworthy text to LLMs or AI agents like Salesforce Agent Force, Microsoft Copilot, Amazon Q, and SAP JUUL, you will boost accuracy, minimize hallucinations, and meet enterprise security requirements, all while improving deployment speed and reducing costs. Plus, with a unified index and multiple custom and managed solutions available to leverage it, you can scale multiple generative AI applications consistently using a single reliable retrieval method. Thanks for watching. I hope this gave you a clear idea of how the Passage Retrieval API can power fast, accurate, and highly customizable AI driven experiences tailored to your brand, your content, and your users.
API de récupération de Coveo Passage
Ancrez les applications d'IA générative personnalisées dans le contenu pertinent de l'entreprise sans construire votre propre système de recherche et d'extraction. Améliorez la précision, réduisez les hallucinations et respectez les normes de sécurité de l'entreprise grâce à une méthode d'extraction unique pour votre cadre de génération augmentée par extraction (RAG) qui peut s'étendre à l'ensemble de votre entreprise. Cette solution API sans tête fournit des passages de texte précis à votre modèle de langage étendu (LLM) à partir d'un index unifié unique de toutes les connaissances de votre entreprise - garantissant la confiance et la pertinence de chaque réponse.
FICHE PRODUIT

Recherche d'informations pour l'IA générative à grande échelle

FICHE PRODUIT

Recherche d'informations pour l'IA générative à grande échelle

Construisez une IA générative fiable avec une recherche d'information de niveau entreprise grâce à l'API de recherche Passage de Coveo.

Les leaders du secteur transforment leur commerce grâce à l’IA

FAQ sur les réponses génératives

La mise à l'échelle des projets d'IA générative au sein d'une entreprise s'accompagne de plusieurs défis. Un problème courant est la fragmentation causée par de multiples équipes menant des projets de validation de concept (POC) en silo. Ces efforts déconnectés conduisent souvent à une duplication du travail, à des pipelines de données incohérents et à des bases de connaissances fragmentées.

Lasécurité et la conformité sont également des obstacles importants, car les données d'entreprise nécessitent des contrôles d'accès stricts et doivent respecter les normes réglementaires, ce qui complique la création et la maintenance de pipelines sécurisés.

En outre, l'intégration de diverses sources de données aux formats et API variés est complexe et nécessite une maintenance permanente pour éviter les données périmées ou les problèmes de connexion.

Enfin, l'évolutivité est difficile à obtenir, car les systèmes de production doivent gérer des millions d'utilisateurs et de documents tout en maintenant des performances et une fiabilité élevées.

La réalité de l'entreprise : Le déploiement de la GenAI pour des cas d'utilisation réels est bien plus complexe qu'une preuve de concept ou une démonstration rapide. Bien que beaucoup aient investi dans la formation de leurs propres LLM, la sécurité, l'évolutivité et la qualité des données sont des préoccupations constantes.

L'écart de récupération : la génération augmentée de récupération (RAG) est largement vantée comme le moyen d'ancrer les LLM dans les données d'une organisation, mais la récupération d'informations est plus difficile que les organisations ne le pensent. De nombreuses équipes sous-estiment les coûts opérationnels liés à la connexion, à la sécurisation et à l'unification des sources de données à grande échelle, ainsi qu'à leur maintenance.

L'extraction est essentielle car elle garantit que les applications d'IA générative reposent sur des données précises, opportunes et pertinentes. Si la création d'invites ou la sélection d'un modèle de langage étendu (LLM) peut être relativement simple, l'alimentation du LLM avec des données de haute qualité est beaucoup plus difficile. Si le système de recherche est défectueux - en raison de données périmées, d'une faible pertinence de la recherche ou de sources fragmentées - les résultats de l'IA ne seront pas fiables, ce qui entraînera des scénarios de type "garbage in, garbage out" (entrée et sortie de déchets). Coveo résout ce problème en indexant les données à travers les silos, en classant les résultats avec l'IA et en appliquant des mesures de sécurité strictes, assurant que le LLM reçoive la meilleure information possible. Cette base d'extraction robuste est ce qui permet des applications d'IA générative évolutives et fiables.

Le choix de la part de vos expériences d'IA générative à construire varie en fonction du client et du cas d'utilisation. Il est courant que les organisations déploient une combinaison de solutions de réponse générative personnalisées et prêtes à l'emploi.

Les raisons de créer des applications d'IA générative personnalisées sont souvent le contrôle de l'interface utilisateur frontale, l'utilisation d'un LLM conçu à cet effet ou formé par l'entreprise, l'intégration à un chatbot ou à un flux de travail agentique, ou un contrôle plus granulaire de l'ingénierie des messages-guides. Dans tous ces cas, la portion de récupération d'information du RAG est la plus difficile à créer et à maintenir ; c'est là que l'API de récupération de Coveo Passage entre en jeu.

Si vous cherchez une solution gérée prête à l'emploi pour les services, les sites Web, les lieux de travail et les cas d'utilisation commerciaux, jetez un coup d'œil à Coveo Relevance Generative Answering. Ce produit tire parti de la même API de récupération, mais offre une expérience de réponse générative prête à l'emploi avec un délai de rentabilité exceptionnel.

Pour unifier et développer les projets Gen AI, il faut regrouper les efforts autour d'un système de recherche d'informations unique et sécurisé. Les POCs fragmentés mènent souvent à un travail dupliqué, à des données fragmentées et à une sécurité incohérente. Une plateforme robuste comme Coveo centralise la recherche, indexe les données à travers les silos tout en assurant un accès sécurisé, pertinent et évolutif. En fondant vos LLM sur une extraction fiable, vous rationalisez les opérations et permettez un déploiement cohérent de l'IA à l'échelle de l'entreprise.

L'évolutivité provient d'une technologie d'entreprise éprouvée, conçue pour les volumes élevés et la complexité. Le moteur d'extraction de Coveo basé sur l'IA assure une performance sécurisée, conforme et fiable pour des millions de documents et d'utilisateurs. Avec des réponses génératives prêtes à l'emploi et des API de récupération personnalisées, le partenariat avec Coveo réduit le temps de développement, diminue les coûts et accélère le retour sur investissement des projets de génération augmentée de récupération, livrant des solutions GenAI percutantes en quelques semaines.