Lee el Informe — Estado de la IA Aplicada →
TecnologíaDesarrollo de Producto

Cómo Allspice mejoró la precisión de coincidencia de ingredientes del 20 % al 97 % con Pinecone

Allspice, una startup de tecnología alimentaria que construye un sistema operativo de cocina para consumidores y editores de recetas, desplegó la base de datos vectorial de Pinecone para resolver la complejidad inherente de los datos de ingredientes que la búsqueda de texto tradicional no podía gestionar. La implementación elevó la precisión de coincidencia de ingredientes de aproximadamente un 20 % a un 97 %, permitiendo el lanzamiento de la importación de recetas como función principal del producto y ampliándose hasta convertirse en una capa semántica para toda la plataforma.

Impacto

20% → 97%

Precisión de coincidencia de ingredientes

1 afternoon

Tiempo para validar el flujo de trabajo

110,000

Total de embeddings gestionados

Desafío

El flujo de importación de recetas de Allspice no podía llegar a producción porque la búsqueda de texto tradicional no era capaz de gestionar el carácter inherentemente caótico de los datos de ingredientes — las variaciones en la redacción, los modificadores y la ortografía mantenian la precisión de coincidencia en torno al 20 % — mientras que las capacidades vectoriales integradas en su pila de búsqueda existente degradaban el rendimiento general al almacenar embeddings de gran tamaño.

Solución

Allspice desplegó Pinecone como base de datos vectorial dedicada, incrustando su base de datos de 10.000 ingredientes con el modelo text-embedding-3-large de OpenAI y construyendo una capa semántica completamente desacoplada que escala de forma independiente — expandiéndola después a la coincidencia de ingredientes, la similitud de recetas, la búsqueda difusa, la normalización del chatbot y la recuperación de FAQ en toda la plataforma.

Herramientas y tecnologías

Lo que dicen los líderes

La ventaja de los vectores siempre ha sido la flexibilidad. En lugar de gestionar cuidadosamente los parámetros de búsqueda en Typesense, intentando equilibrar recibir siempre un resultado con recibir solo resultados relevantes, Pinecone elimina toda esa complejidad con una consulta simple.

William Templeton, Cofundador y CTO, Allspice

Pinecone ayuda a salvar una brecha fundamental en los sistemas de IA modernos entre los tipos de datos estrictamente estructurados y la entrada en lenguaje natural no estructurado. Proporciona una capa semántica entre esos dos mundos, permitiéndonos medir la similitud y el significado sin necesitar coincidencias exactas ni esquemas rígidos.

William Templeton, Cofundador y CTO, Allspice

Nunca habría probado Pinecone sin una opción alojada en la nube y serverless. Necesitaba algo que pudiera configurar en una tarde y poner en marcha en un flujo básico para evaluar la eficacia de mi solución a mis problemas.

William Templeton, Cofundador y CTO, Allspice
Entiende todo el contexto.

Regístrate para leer casos de estudio completos, acceder a métricas detalladas y recibir todos los reportes.

Historia completa

Allspice es una empresa de tecnología alimentaria que construye un sistema operativo de cocina integral para consumidores y editores de recetas. En el lado del consumidor, la plataforma ayuda a los cocineros domésticos a descubrir recetas, gestionar el inventario de la despensa y generar listas de la compra automatizadas. Para los editores, Allspice ofrece herramientas interactivas que aumentan la participación y abren flujos de ingresos más allá de la publicidad de display tradicional. En el centro de ambas experiencias está la capacidad de entender los alimentos como lo haría un humano: reconocer que «un manojo de cilantro» y «cilantro fresco picado» son el mismo ingrediente a pesar de una redacción completamente diferente.

Cuando Allspice incorporó la importación de recetas como función principal del producto, chocó contra un muro fundamental. Los datos de ingredientes son inherentemente caóticos: frases con modificadores, variaciones ortográficas, inconsistencias de análisis sintáctico y descripciones informales hacen que la coincidencia determinística sea poco fiable. El equipo había construido sobre una pila NoSQL con Google Cloud Firestore y Typesense, que funcionaba bien para la búsqueda estructurada tradicional pero no podía salvar la brecha semántica entre cómo aparecen los ingredientes en las recetas de origen y cómo se almacenan en la base de datos propia de Allspice. Intentar usar las capacidades vectoriales de Typesense creó problemas adicionales: almacenar grandes embeddings junto a documentos pequeños degradaba el rendimiento general del sistema. Con una precisión de coincidencia de ingredientes de aproximadamente un 20 %, la importación de recetas no era viable como función de producto.

Allspice recurrió a Pinecone como base de datos vectorial dedicada. El equipo incrustó su base de datos propia de aproximadamente 10.000 ingredientes usando el modelo text-embedding-3-large de OpenAI y validó el enfoque de inmediato. La infraestructura serverless y gestionada de Pinecone mantuvo la búsqueda semántica completamente desacoplada del resto de la pila, permitiendo que las cargas de trabajo vectoriales escalasen de forma independiente sin necesidad de rediseñar las capas existentes. Lo que comenzó como un único flujo de coincidencia de ingredientes se expandió de forma iterativa: los embeddings a nivel de receta habilitaron una función de «más recetas como esta», la búsqueda de recetas difusa añadió recuperación flexible junto a los filtros estructurados, y los embeddings Llama alojados en Pinecone apoyaron la normalización de datos del chatbot mapeando entradas de lenguaje libre a representaciones internas estructuradas. La plataforma gestiona ahora aproximadamente 110.000 embeddings de recetas e ingredientes.

Los resultados transformaron el producto. La precisión de coincidencia de ingredientes saltó del 20 % al 97 %, llevando el flujo de importación de recetas de inutilizable a listo para producción. Con esa base establecida, Allspice pudo lanzar una de sus funciones principales — una capacidad que hasta entonces había estado completamente bloqueada. El equipo configuró Pinecone y validó un flujo funcional en una sola tarde, una velocidad esencial para una startup donde la validación de ideas determina qué se lanza. La satisfacción de los usuarios con la búsqueda de recetas mejoró significativamente, y los editores obtuvieron nuevas superficies de participación que aumentaron el tiempo en el sitio y habilitaron ingresos por exportaciones a la compra, suscripciones y comisiones de afiliados.

Allspice está ampliando ahora el papel de Pinecone en sus sistemas de IA conversacional. Los trabajos planificados incluyen la clasificación y recuperación de preguntas frecuentes para relacionar las consultas de los usuarios con el contenido aprobado por los editores, y un uso más amplio de la recuperación vectorial para reducir el uso de tokens de LLM a medida que crezca el volumen de consultas del chatbot. La pila — Pinecone para la recuperación semántica, Gemini 2.5 y GPT-4.1-mini para la generación, y Firestore para el almacenamiento de documentos — mantiene a Allspice independiente del modelo mientras asienta sus funciones de IA en una recuperación fiable y de alta precisión.

Casos similares

1
1up
10x faster
response generation speed for rfps and compliance questionnaires

1up, a sales knowledge automation platform, integrated Pinecone's vector database to power a RAG-based system that delivers real-time, highly accurate answers to complex sales queries. The solution replaced a slow, home-grown embedding system and achieved 10x faster response generation for RFPs and compliance questionnaires. Sales reps can now handle high volumes of queries with confidence, reducing reliance on colleagues and accelerating the go-to-market process.

TechnologyAAWSPPinecone
C
CustomGPT.ai
>400M
vectors stored

CustomGPT.ai built a RAG-as-a-Service platform on Pinecone storing over 400M vectors, achieving sub-20ms query latency and the #1 ranking in an independent RAG accuracy benchmark.

TechnologyPPinecone
D
Delphi
>100M
vectors stored

Delphi is an AI platform that enables coaches, creators, and experts to deploy interactive “Digital Minds”—always-on conversational agents trained on their unique content. Scaling from proof of concept to a commercial platform with thousands of customers required a vector database that could support millions of isolated namespaces, billions of vectors, and sub-second retrieval under variable load. Delphi selected Pinecone, achieving P95 query latency of 100ms and keeping retrieval under 30% of total response time—freeing the engineering team to build product rather than manage infrastructure.

TechnologyPPinecone
TX
Terminal X
0.68 to 0.91
f1 retrieval accuracy improvement

Terminal X is a vertical AI platform for institutional investors that acts as a 24/7 research agent, processing millions of financial documents for hedge funds, asset managers, and private equity firms. By rebuilding its retrieval architecture on Pinecone’s vector database, Terminal X improved F1 retrieval accuracy from 0.68 to 0.91, cut average latency by over 35%, and doubled deployment velocity. Users now save approximately three hours per day, and investment memo preparation dropped from two days to half a day.

Financial ServicesTechnologyPPinecone
Z
ZoomInfo
>50%
increase in user engagement

ZoomInfo, a B2B go-to-market intelligence platform with hundreds of millions of professional contact records, needed a vector database to power real-time personalized contact recommendations for sales and marketing teams. The company deployed Pinecone’s serverless vector database with Dedicated Read Nodes to run semantic search over 390 million contact embeddings with sub-second latency. The result was a 50% increase in user engagement, a 2x improvement in recommendation relevancy, and 50x more peak request capacity.

TechnologyPPinecone
A
Assembled
~95%
ticket handling time reduction

Assembled is a workforce management and customer support optimization platform serving enterprises like Stripe, Etsy, and DoorDash. To power Assembled Assist, the company built a hybrid RAG pipeline combining Pinecone vector search with Algolia keyword retrieval and LLMs from OpenAI and Anthropic. Support tasks that previously took 40 minutes now complete in 2 minutes—a 95% reduction in handling time.

TechnologyAAlgoliaOLOpenAI LLMs
G
Gong
10x
infrastructure cost reduction

Gong is a revenue intelligence platform that analyzes billions of customer interactions to help sales teams improve performance. To power Smart Trackers—its patented AI system for detecting and classifying concepts in sales conversations—Gong adopted Pinecone as its core vector database, storing billions of sentence-level embeddings across real conversations. Migrating to Pinecone Serverless delivered a 10x reduction in infrastructure costs while sustaining peak search performance across a massive corpus.

TechnologyPPinecone
P
Pfizer
93%
database reduction

Pfizer achieved a 93% database reduction and 20% cost avoidance by migrating their global SAP environment to S/4HANA on IBM Power10 infrastructure.

PharmaceuticalsTechnologyICIBM ConsultingIPIBM Power Virtual Server