Couchbase Capella AI Servicios 2024
Agilizar el desarrollo de aplicaciones de IA agéntica
Capella AI Services permite a las empresas abordar los crecientes desafíos de datos asociados con el desarrollo y despliegue de IA, simplificando el proceso de creación de aplicaciones de IA basadas en agentes, seguras y escalables. Mediante el uso de Capella AI Services, las organizaciones pueden crear prototipos, construir, probar y desplegar agentes de aplicación de manera eficiente, manteniendo los modelos y los datos muy cerca. Esta configuración minimiza la latencia y reduce los costes operativos, obstáculos habituales a la hora de integrar nuevos componentes tecnológicos y flujos de trabajo.
Los servicios de IA de Capella incluyen:
- Servicios de modelos: Ofrece puntos finales gestionados para los principales LLM y modelos de incrustación, y proporciona funciones de valor añadido, como el almacenamiento en caché de avisos y conversaciones, guardrails y filtrado de palabras clave para dar soporte a flujos de trabajo RAG y agentic. La colocación de datos y modelos de IA facilita el cumplimiento de los requisitos de privacidad y latencia deseados para crear aplicaciones RAG de nivel empresarial, sin necesidad de utilizar costosos enlaces privados o soluciones personalizadas.
- Servicios de datos no estructurados: Extrae, limpia, fragmenta y transforma documentos no estructurados en JSON, preparándolos para la vectorización. También extrae información estructurada de documentos complejos y los hace consultables en Capella. Esto ahorra a los desarrolladores el tiempo asociado con la construcción de tuberías de preprocesamiento DIY.
- Servicios de vectorización: Automatiza la vectorización y la indexación de los datos almacenados en Capella. Junto con Model y Unstructured Data Services, ayuda a los desarrolladores a crear rápidamente una canalización RAG con menos herramientas.
- Servicios de catálogo de agentes de IA: Acelera el desarrollo de aplicaciones agénticas ofreciendo un repositorio centralizado de herramientas, metadatos, avisos e información de auditoría para el flujo, la trazabilidad y la gobernanza de LLM. También automatiza el descubrimiento de las herramientas de agentes pertinentes para responder a las preguntas de los usuarios y gestiona los guardarraíles para garantizar que los intercambios de agentes sean coherentes a lo largo del tiempo.
- Funciones de Capella AI: Mejora la productividad de los desarrolladores integrando el análisis de datos basado en IA directamente en los flujos de trabajo de las aplicaciones mediante la conocida sintaxis SQL++, lo que elimina la necesidad de herramientas externas o código personalizado. Con funciones como el resumen, la clasificación, el análisis de opiniones y el enmascaramiento de datos, Capella permite a los desarrolladores transformar sin problemas datos transaccionales y columnares complejos en información práctica dentro de una única plataforma unificada.
Capella Nivel gratuito
Para mejorar la comodidad y accesibilidad de los desarrolladores, nos complace presentar un nuevo nivel gratuito de Couchbase Capella™ que sustituye a la versión de prueba de 30 días de Capella. Permite a los desarrolladores aprender, usar y persistir en su actividad en Capella durante el tiempo que necesiten, y soporta la promoción de su trabajo en entornos de prueba y producción. El nivel gratuito está disponible con el apoyo del foro y la comunidad, y se abrirá el 9 de septiembre.
Recursos relacionados
Libros blancos y blogs
Fichas técnicas y páginas
Anuncio de Couchbase Enterprise Server 7.6 y 7.6.2
Soporte para búsqueda vectorial y aplicaciones adaptativas basadas en IA
La versión de primavera de 2024 de Capella ofrece compatibilidad con Couchbase Server 7.6, incluido el almacenamiento, la indexación y la recuperación de alto rendimiento de incrustaciones vectoriales. Las organizaciones se apresuran a crear aplicaciones adaptativas hiperpersonalizadas impulsadas por IA generativa que ofrezcan experiencias excepcionales a sus usuarios finales. La búsqueda vectorial permite a las organizaciones utilizar el marco de generación aumentada por recuperación (RAG) para interactuar con LLM y otros modelos de fundamentos para hacer que los chatbots y las aplicaciones impulsados por IA sean más seguros, estén actualizados y correctamente alineados con información corporativa específica. Además, los equipos pueden utilizar la búsqueda híbrida, una combinación de búsqueda vectorial, búsqueda de texto, búsqueda de rango, búsqueda de valor explícito y búsqueda geoespacial, para crear soluciones de búsqueda sólidas para los usuarios finales, todo dentro de una única plataforma. No es necesaria una base de datos vectorial independiente. Las búsquedas avanzadas pueden realizarse mediante una única consulta SQL y un único índice para ofrecer resultados potentes y de baja latencia, al tiempo que se reduce el coste total de propiedad. Más información
Más mejoras de rendimiento para la búsqueda vectorial
Couchbase Enterprise Server 7.6.2 añade impresionantes mejoras de rendimiento y escalabilidad a la búsqueda vectorial para sistemas autogestionados y basados en Capella, incluido un aumento del rendimiento 7 veces superior y menores requisitos de memoria. Amplía el soporte a vectores de 4096 dimensiones y añade vectores comprimidos en base64 tanto para datos como para consultas, reduciendo la sobrecarga de almacenamiento.
Soporte para vectores en Couchbase Mobile
Couchbase es el primer proveedor de bases de datos que anuncia soporte vectorial para su base de datos móvil integrable (Couchbase Lite). Esto permitirá a los clientes crear potentes aplicaciones impulsadas por IA en el borde donde se producen y consumen los datos. Ver la pestaña Móvil para más detalles.
Integración del ecosistema de IA
Couchbase está impulsando su ecosistema de socios de IA con LangChain y LlamaIndex para aumentar aún más la productividad de los desarrolladores. La integración con LangChain permite una interfaz API común para conversar con una amplia biblioteca de LLMs. Del mismo modo, la integración de Couchbase con LlamaIndex proporcionará a los desarrolladores aún más opciones de LLM a la hora de crear aplicaciones adaptativas. Estas integraciones acelerarán el montaje de consultas, mejorarán la validación de respuestas y facilitarán las aplicaciones RAG.
Capacidades gráficas habilitadas por los recorridos de consulta
Couchbase ofrece soporte para graph relationship traversals, lo que significa la capacidad de hacer consultas recursivas para mapeo de jerarquías y redes. La consulta de estructuras de datos jerárquicas permite realizar análisis complejos con CTE recursivo ANSI SQL en áreas como organigramas, listas de materiales, gestión de la cadena de suministro, topología de redes y redes sociales. Más información
El nuevo reajuste de índices reduce los tiempos hasta 80%
Con el fin de agilizar el escalado de los nodos de índice sin afectar al uso de la CPU o la memoria, Server 7.6 utiliza ahora el reequilibrado basado en archivos. Las pruebas han demostrado una mejora drástica en el tiempo necesario para completar los reequilibrios, lo que facilita el proceso y lo hace más satisfactorio. Más información
Couchstore a Magma, actualización en un solo paso sin tiempo de inactividad
Los clientes podrán migrar de Couchstore al motor de almacenamiento Magma sin detener las cargas de trabajo front-end. Los clientes deben estar en la versión 7.6 para permitir la migración. La migración puede revertirse en cualquier momento si es necesario. Más información
Tiempos de conmutación por error más rápidos que mejoran la HA
En caso de interrupción de un nodo de datos, la consulta se redirigirá automáticamente al siguiente nodo de datos disponible sin que la aplicación tenga que hacer nada. El tiempo de espera mínimo para la recuperación automática se ha reducido de 5 segundos a 1 segundo, y la frecuencia de los latidos se ha reducido de 1 segundo a 200 milisegundos. Más información
Simplificación de las consultas
Para facilitar el desarrollo y las pruebas iniciales, los usuarios pueden realizar todas las operaciones CRUD y join de la base de datos sin índices. Esto mejora la experiencia de los nuevos usuarios con CREATE, INSERT y SELECT sin obtener un error de índice. Además, los usuarios pueden realizar escaneos simples de rangos clave-valor basados en prefijos de claves de documentos sin necesidad de nodos de consulta e indexación. Para obtener el mejor rendimiento, se siguen recomendando los índices cuando la velocidad es una prioridad. Más información
Recursos relacionados
Blogs
Documentos y tutoriales
Couchbase Móvil: Novedades
Habilitar la IA desde la nube
La búsqueda es una parte importante de cualquier aplicación, pero buscar sólo palabras y frases concretas no basta para establecer una conexión personal. Necesitas una búsqueda semántica para conseguir las coincidencias que tengan más sentido para el usuario en su contexto. Búsqueda vectorial va más allá de la simple búsqueda de palabras coincidentes: también encuentra información relacionada basada en la significado central de la entrada, lo que la convierte en la mejor opción para ofrecer información relevante que conecte con los usuarios.
Couchbase Móvil 3.2
La liberación de Couchbase Móvil 3.2 completa nuestra visión "cloud-to-edge AI" ofreciendo búsqueda vectorial en el dispositivo con Couchbase Lite, la base de datos integrada para aplicaciones móviles y IoT. Ahora, los desarrolladores móviles pueden aprovechar las capacidades de búsqueda vectorial en el borde sin depender de Internet, lo que permite las aplicaciones GenAI más rápidas, seguras y fiables posibles. Estos beneficios se amplifican cuando se combinan con la búsqueda vectorial en Couchbase Capella y Couchbase Server para permitir el soporte de IA de nube a borde.
Capacidades clave
Cree aplicaciones móviles rápidas, fiables y seguras basadas en inteligencia artificial que funcionen incluso sin Internet.
Al habilitar la búsqueda vectorial en el dispositivo, se eliminan las dependencias de bases de datos distantes en la nube, lo que acelera las aplicaciones y elimina el tiempo de inactividad debido a cortes de Internet.
Búsqueda vectorial de la nube al borde
Con la búsqueda vectorial en Capella y Couchbase Lite combinada con la sincronización de datos incorporada, se obtiene la escala de nube para manejar las cantidades masivas de datos requeridas para la IA y las capacidades de borde para la inmediatez para hacer efectiva la IA.
Búsqueda híbrida para un compromiso hiperpersonalizado
La búsqueda vectorial es aún más potente cuando la combinas con otras técnicas de búsqueda y consulta condicional (como la búsqueda de texto completo) soportadas por Couchbase Mobile, y la llamas usando una única consulta SQL estándar.
RAG en el borde
La generación aumentada por recuperación se refiere a una técnica arquitectónica que ayuda a la precisión de los modelos de IA al permitir que el modelo tenga acceso a hechos externos. Los resultados de la búsqueda vectorial pueden incluirse como datos contextuales en las consultas enviadas a un LLM para personalizar las respuestas a las consultas. Con Couchbase Mobile, los desarrolladores pueden crear aplicaciones RAG que funcionan en el borde sin Internet.
Privacidad y seguridad superiores para la IA
Al procesar los datos en el perímetro, se garantiza la privacidad porque los datos confidenciales nunca tienen que salir del perímetro. Puede desarrollar aplicaciones GenAI que se ejecuten en el dispositivo o en el perímetro sin tener que preocuparse de introducir datos confidenciales o privados en modelos públicos.
Descargue Couchbase Lite 3.2 aquí.