TecnologíaIngeniería de Software

Cómo Notion Impulsa una Búsqueda de IA Precisa para Millones con Cohere Rerank

Notion, la plataforma de espacio de trabajo conectado utilizada por millones de personas en todo el mundo, integró Cohere Rerank en su pipeline de búsqueda para potenciar la precisión de búsqueda de Notion AI en espacios de trabajo empresariales multilingües. Cada búsqueda e interacción con Notion AI pasa ahora por Cohere Rerank, ofreciendo una relevancia notablemente mejorada a la vez que reduce el coste y la complejidad de la recuperación basada en embeddings para espacios de trabajo más pequeños.

Impacto

Millions

Usuarios de Notion AI alcanzados

From 100,000 to 200 documents

Mejora en precisión de recuperación

Eliminated embedding and vector storage for most workspaces

Reducción de costes

Desafío

Notion necesitaba un reranker de búsqueda que pudiera mejorar la precisión de las respuestas en grandes espacios de trabajo empresariales multilingües sin el coste y la carga de infraestructura de la recuperación basada en embeddings, a la vez que daba soporte a diversas bases de usuarios globales en EMEA y APAC.

Solución

Cohere Rerank se integró en el pipeline de búsqueda de Notion a través de Amazon SageMaker, ubicado antes del modelo generativo para mejorar la relevancia de los resultados, permitiendo a Notion omitir costosos embeddings en espacios de trabajo más pequeños y combinar resultados de búsqueda de múltiples fuentes como Slack, GitHub y otras herramientas conectadas.

Herramientas y tecnologías

Lo que dicen los líderes

Cohere es una parte clave de lo que hace funcionar Notion AI. Cohere Rerank nos ofrece tanto la velocidad como la calidad que necesitamos, y mejora constantemente. Ha sido esencial para lanzar nuestros AI Connectors rápidamente.

Simon Last, Cofundador y CTO, Notion

Cohere Rerank es uno de los únicos rerankers multilingüe de alta calidad y rápidos del mercado, y por eso lo usamos. Cada búsqueda e interacción con Notion AI pasa por Cohere Rerank.

Abhishek Modi, Ingeniero de Software, Notion

Una parte importante del pipeline de búsqueda es la precisión. Con Cohere Rerank, ya no tenemos que preocuparnos por eso y podemos centrarnos en otras partes como el recall.

Abhishek Modi, Ingeniero de Software, Notion
Get the full story.

Sign up to read complete case studies, access detailed metrics, and unlock all use cases.

Historia completa

Notion opera a una escala que convierte la infraestructura de búsqueda en una preocupación central del producto, no en un detalle técnico. La plataforma aloja wikis colaborativas, sistemas de gestión de proyectos y bases de conocimiento conectadas para empresas que van desde pequeñas startups hasta grandes corporaciones globales, y a medida que esas organizaciones crecen, también lo hace el volumen de documentos, bases de datos e integraciones que gestionan en Notion. Cuando se lanzó Notion AI, ofrecer respuestas precisas y rápidas a las consultas de los usuarios en este heterogéneo conjunto de contenidos se convirtió en un requisito fundamental del producto. El desafío técnico consistía en encontrar una solución de reranking que pudiera igualar la precisión que los usuarios esperaban de las funciones nativas de IA.

Antes de integrar Cohere Rerank, el pipeline de búsqueda de Notion enfrentaba una tensión estructural: los modelos de embedding eran costosos de ejecutar a escala y requerían infraestructura de almacenamiento vectorial, pero los métodos de recuperación más sencillos carecían de la precisión necesaria para mostrar los documentos más relevantes en espacios de trabajo grandes. El desafío se veía agravado por la base de usuarios global de Notion, más de la mitad de los cuales trabajan con contenido multilingüe en los mercados de EMEA y APAC, lo que requería una solución que pudiera operar con precisión en varios idiomas sin necesidad de modelos separados ni sobrecarga técnica adicional.

Notion integró Cohere Rerank directamente en el pipeline de búsqueda, ubicándolo antes de que el modelo generativo procese cualquier consulta de usuario. La implementación utilizó Amazon SageMaker para el escalado automático, lo que permite a Notion gestionar cargas de tráfico variables sin sobreaprovisionamiento. Una decisión de diseño especialmente importante: para espacios de trabajo con menos de 1.000 documentos, que representan la mayoría de la base de clientes de Notion, Cohere Rerank permite saltarse por completo la búsqueda vectorial y por embeddings tradicional, reduciendo tanto el coste como la complejidad del sistema sin perder calidad en las respuestas. El mismo modelo Rerank también gestiona la combinación de resultados de múltiples fuentes, fusionando los resultados de Slack, GitHub y otras herramientas conectadas en respuestas coherentes y ordenadas por relevancia.

La mejora en precisión respecto a los modelos de embedding ha sido notable. Como explicó el ingeniero de software Abhishek Modi, Cohere Rerank es considerablemente más preciso que los enfoques de embedding para reducir grandes conjuntos de documentos al subconjunto más relevante, pasando de un pool de recuperación de 100.000 documentos a 200 con mucha mayor fidelidad. El cofundador y CTO Simon Last describió Rerank como esencial para lanzar rápidamente los AI Connectors de Notion, citando tanto la velocidad como la mejora continua como factores diferenciadores. El resultado: millones de usuarios de Notion han interactuado con las funciones de Notion AI, con un rápido crecimiento mensual en el uso y una contribución significativa a los ingresos de la empresa.

La implementación de Notion ilustra cómo una experiencia de IA de nivel consumidor depende de una infraestructura de recuperación de nivel empresarial por debajo. La decisión de asociarse estrechamente con Cohere, en lugar de depender de alternativas de código abierto que requerirían mantenimiento propio, refleja una apuesta estratégica por la mejora acelerada de los modelos y el soporte colaborativo como ventaja competitiva duradera a medida que Notion AI escala.

Casos similares

B
BambooHR
tens of thousands
employee questions answered

BambooHR built an AI-powered HR assistant using Cohere's Embed and Rerank models to answer employee questions accurately, saving HR teams thousands of hours while handling sensitive data securely.

TechnologyCECohere EmbedCRCohere Rerank
P
Pfizer
93%
database reduction

Pfizer achieved a 93% database reduction and 20% cost avoidance by migrating their global SAP environment to S/4HANA on IBM Power10 infrastructure.

PharmaceuticalsTechnologyIPIBM Power10IPIBM PowerVM
C
Classmethod
up to 90%
reduction in development time

Classmethod, a leading Japanese cloud integrator, deployed Claude Code across its engineering teams to address chronic developer shortages. The tool automated code generation, review, and testing workflows, reducing development time by up to 90% on specific tasks and cutting code review time by 80%.

TechnologyCCClaude Code
L
Lusha
300%
increase in outbound leads

Lusha is a B2B sales intelligence platform with 1.5 million users and a database of over 200 million business contacts. By deploying Elasticsearch as both a full-text search engine and a vector database for AI-powered lead recommendations, Lusha helps customers generate 300% more leads, achieve conversion rates up to 10x higher, and realize return on investment of up to 1,000%.

TechnologyEElasticsearch
T
Tabnine
50%
improvement in response times

Tabnine integrated Claude 3.5 Sonnet via Amazon Bedrock into its AI coding assistant, serving over 1 million monthly developers. The migration delivered 50% faster response times, a 20% increase in free-to-paid conversions, and a 20-30% reduction in churn—while meeting strict security and compliance requirements for regulated industries.

TechnologyCClaudeABAmazon Bedrock
F
Factory
550,000 hours
development time saved

Factory built autonomous AI agents called Droids using Claude 3 Opus and Claude 3 Haiku to automate labor-intensive software engineering tasks at scale. These Droids handle code review, documentation, refactors, migrations, and feature requests across the entire software development lifecycle. Customers using Factory Droids saved 550,000 hours of development time and saw a 20% reduction in development cycle time.

TechnologyC3Claude 3 OpusC3Claude 3 Haiku
A
Apollo
35%
increase in meeting bookings

Apollo integrated Claude 3.5 Haiku into its sales engagement platform to power intelligent, personalized messaging and prospect research at scale. The AI-driven features help sales teams write highly effective outreach without requiring technical expertise, generating over 5 million Claude-powered messaging actions per month. Customers using Claude-powered messaging saw a 35% boost in meeting bookings and a 15% increase in retention rates.

TechnologyC3Claude 3.5 Haiku
H
Hostinger
Minutes vs. days
website creation time

Hostinger partnered with Anthropic to build Hostinger Horizons, an AI-powered platform that converts natural language prompts into complete, functional websites and applications. The solution eliminates the steep learning curve of traditional web builders, enabling non-technical users to create professional online presences in minutes instead of days.

TechnologyCClaude