Cómo Notion Impulsa una Búsqueda de IA Precisa para Millones con Cohere Rerank
Notion, la plataforma de espacio de trabajo conectado utilizada por millones de personas en todo el mundo, integró Cohere Rerank en su pipeline de búsqueda para potenciar la precisión de búsqueda de Notion AI en espacios de trabajo empresariales multilingües. Cada búsqueda e interacción con Notion AI pasa ahora por Cohere Rerank, ofreciendo una relevancia notablemente mejorada a la vez que reduce el coste y la complejidad de la recuperación basada en embeddings para espacios de trabajo más pequeños.
Impacto
Millions
Usuarios de Notion AI alcanzados
From 100,000 to 200 documents
Mejora en precisión de recuperación
Eliminated embedding and vector storage for most workspaces
Reducción de costes
Desafío
Notion necesitaba un reranker de búsqueda que pudiera mejorar la precisión de las respuestas en grandes espacios de trabajo empresariales multilingües sin el coste y la carga de infraestructura de la recuperación basada en embeddings, a la vez que daba soporte a diversas bases de usuarios globales en EMEA y APAC.
Solución
Cohere Rerank se integró en el pipeline de búsqueda de Notion a través de Amazon SageMaker, ubicado antes del modelo generativo para mejorar la relevancia de los resultados, permitiendo a Notion omitir costosos embeddings en espacios de trabajo más pequeños y combinar resultados de búsqueda de múltiples fuentes como Slack, GitHub y otras herramientas conectadas.
Herramientas y tecnologías
Lo que dicen los líderes
“Cohere es una parte clave de lo que hace funcionar Notion AI. Cohere Rerank nos ofrece tanto la velocidad como la calidad que necesitamos, y mejora constantemente. Ha sido esencial para lanzar nuestros AI Connectors rápidamente.”
“Cohere Rerank es uno de los únicos rerankers multilingüe de alta calidad y rápidos del mercado, y por eso lo usamos. Cada búsqueda e interacción con Notion AI pasa por Cohere Rerank.”
“Una parte importante del pipeline de búsqueda es la precisión. Con Cohere Rerank, ya no tenemos que preocuparnos por eso y podemos centrarnos en otras partes como el recall.”
Sign up to read complete case studies, access detailed metrics, and unlock all use cases.
Historia completa
Notion opera a una escala que convierte la infraestructura de búsqueda en una preocupación central del producto, no en un detalle técnico. La plataforma aloja wikis colaborativas, sistemas de gestión de proyectos y bases de conocimiento conectadas para empresas que van desde pequeñas startups hasta grandes corporaciones globales, y a medida que esas organizaciones crecen, también lo hace el volumen de documentos, bases de datos e integraciones que gestionan en Notion. Cuando se lanzó Notion AI, ofrecer respuestas precisas y rápidas a las consultas de los usuarios en este heterogéneo conjunto de contenidos se convirtió en un requisito fundamental del producto. El desafío técnico consistía en encontrar una solución de reranking que pudiera igualar la precisión que los usuarios esperaban de las funciones nativas de IA.
Antes de integrar Cohere Rerank, el pipeline de búsqueda de Notion enfrentaba una tensión estructural: los modelos de embedding eran costosos de ejecutar a escala y requerían infraestructura de almacenamiento vectorial, pero los métodos de recuperación más sencillos carecían de la precisión necesaria para mostrar los documentos más relevantes en espacios de trabajo grandes. El desafío se veía agravado por la base de usuarios global de Notion, más de la mitad de los cuales trabajan con contenido multilingüe en los mercados de EMEA y APAC, lo que requería una solución que pudiera operar con precisión en varios idiomas sin necesidad de modelos separados ni sobrecarga técnica adicional.
Notion integró Cohere Rerank directamente en el pipeline de búsqueda, ubicándolo antes de que el modelo generativo procese cualquier consulta de usuario. La implementación utilizó Amazon SageMaker para el escalado automático, lo que permite a Notion gestionar cargas de tráfico variables sin sobreaprovisionamiento. Una decisión de diseño especialmente importante: para espacios de trabajo con menos de 1.000 documentos, que representan la mayoría de la base de clientes de Notion, Cohere Rerank permite saltarse por completo la búsqueda vectorial y por embeddings tradicional, reduciendo tanto el coste como la complejidad del sistema sin perder calidad en las respuestas. El mismo modelo Rerank también gestiona la combinación de resultados de múltiples fuentes, fusionando los resultados de Slack, GitHub y otras herramientas conectadas en respuestas coherentes y ordenadas por relevancia.
La mejora en precisión respecto a los modelos de embedding ha sido notable. Como explicó el ingeniero de software Abhishek Modi, Cohere Rerank es considerablemente más preciso que los enfoques de embedding para reducir grandes conjuntos de documentos al subconjunto más relevante, pasando de un pool de recuperación de 100.000 documentos a 200 con mucha mayor fidelidad. El cofundador y CTO Simon Last describió Rerank como esencial para lanzar rápidamente los AI Connectors de Notion, citando tanto la velocidad como la mejora continua como factores diferenciadores. El resultado: millones de usuarios de Notion han interactuado con las funciones de Notion AI, con un rápido crecimiento mensual en el uso y una contribución significativa a los ingresos de la empresa.
La implementación de Notion ilustra cómo una experiencia de IA de nivel consumidor depende de una infraestructura de recuperación de nivel empresarial por debajo. La decisión de asociarse estrechamente con Cohere, en lugar de depender de alternativas de código abierto que requerirían mantenimiento propio, refleja una apuesta estratégica por la mejora acelerada de los modelos y el soporte colaborativo como ventaja competitiva duradera a medida que Notion AI escala.