Conexión a tierra y recuperación: generación aumentada - AWS Guía prescriptiva

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Conexión a tierra y recuperación: generación aumentada

La confianza, la precisión y la explicabilidad son esenciales para implementar sistemas de IA en entornos de producción empresarial. Los modelos básicos (FMs) ofrecen capacidades generales impresionantes. Sin embargo, están formados en corpus públicos a gran escala y, a menudo, no conocen los datos patentados, las normas empresariales o los cambios recientes.

Para abordar estas brechas de conocimiento, AWS habilita la generación aumentada de recuperación (RAG) a través de las bases de conocimiento de Amazon Bedrock. El RAG es un poderoso patrón arquitectónico que basa las respuestas de la FM en conocimientos externos y específicos de un dominio, lo que ofrece precisión fáctica y relevancia contextual.

El RAG mejora la producción de modelos de lenguaje de gran tamaño (LLM) al combinar dos procesos:

  • Recuperar: utilice un mecanismo de búsqueda semántica (normalmente basado en incrustaciones vectoriales) para identificar el contenido relevante de una fuente de conocimiento seleccionada (por ejemplo, documentos internos, manuales de productos y registros de casos).

  • Generar: proporcione el contexto recuperado como parte de la solicitud al LLM, lo que le permitirá elaborar una respuesta basada en esa información fidedigna.

Este enfoque permite que los modelos básicos de «libro cerrado» actúen como si tuvieran acceso a sus datos empresariales en tiempo real y seleccionados, sin necesidad de tener que volver a capacitarse.

Por ejemplo, un empleado pregunta a un asistente interno de IA: «¿Cuál es nuestra política de viajes?» La respuesta del asistente se crea mediante la documentación de recursos humanos (RRHH) alojada en Amazon Simple Storage Service (Amazon S3), sin necesidad de ajustar un modelo.

Conexión a tierra en Amazon Bedrock

Amazon Bedrock apoya la puesta en tierra a través de su función de bases de conocimiento, que permite a los desarrolladores configurar y vincular los repositorios de contenido empresarial con los modelos básicos sin administrar la infraestructura.

Entre las principales funciones de conexión a tierra en Amazon Bedrock se incluyen las siguientes:

  • Incrustación automática de documentos mediante proveedores de FM compatibles

  • Búsqueda semántica en documentos HTML PDFs, Word o archivos de texto almacenados en Amazon S3

  • Se basa sin ajustes porque el contenido se inserta en la ventana de contexto del LLM

  • Trabaja con Amazon Bedrock Agents para realizar un razonamiento complejo o utilizar herramientas en varios pasos

Entre las fuentes de información básica admitidas en las bases de conocimiento de Amazon Bedrock se incluyen las siguientes:

  • Amazon S3 (soporte nativo) y, Confluence SalesforceSharePoint, o Web Crawler (en versión preliminar)

  • Índices preintegrados mediante almacenes vectoriales como Amazon Aurora, Amazon OpenSearch ServerlessMongoDB, Pinecone Amazon Neptune Analytics y Enterprise Cloud. Redis

El soporte modelo de puesta a tierra en Amazon Bedrock incluye lo siguiente:

  • Todos los LLMs que son compatibles con Amazon Bedrock admiten la conexión a tierra.

  • Los modelos de Amazon Nova están optimizados para la reproducción de texto, imagen y vídeo mediante técnicas de recuperación híbridas.

  • Los agentes de Amazon Bedrock pueden organizar aún más la producción fundamentada para el razonamiento y la toma de decisiones.

Integración con la IA de los agentes

RAG funciona especialmente bien con los agentes de Amazon Bedrock, ya que les permite actuar con inteligencia contextual y conocimiento de las políticas. A continuación se muestra un ejemplo de un flujo de trabajo de una agencia:

  1. La información del usuario se envía a Amazon EventBridge, que la envía a un agente de Amazon Bedrock.

  2. El agente recurre a una base de conocimientos para buscar documentos internos.

  3. El contexto recuperado está integrado en la línea de comandos de LLM.

  4. El LLM genera una salida sólida con referencias y trazabilidad.

  5. (Opcional) El agente almacena los resultados y las pruebas de respaldo en la memoria para futuras acciones.

Este flujo de trabajo permite al agente razonar sobre un contexto fundamentado y tomar decisiones explicables, lo que reduce la brecha entre la inteligencia de uso general y las aplicaciones específicas de un dominio.

Añadir barandas para garantizar la seguridad y el cumplimiento

La conexión a tierra mejora la precisión, pero la IA apta para la producción exige controles explícitos sobre lo que el modelo puede y no puede decir o hacer. La función Amazon Bedrock Guardrails restringe el comportamiento de los agentes y hace cumplir la política empresarial.

Las capacidades de las barandillas incluyen las siguientes:

  • Filtros de contenido: evitan que las publicaciones infrinjan las normas de seguridad o cumplimiento, incluido el enmascaramiento de la información de identificación personal.

  • Temas de rechazo: bloquea categorías específicas de respuestas (por ejemplo, si no hay consejo médico).

  • Inspección rápida: identifique y elimine las entradas confidenciales antes de realizar la inferencia.

  • Control de acceso a nivel de usuario: personalice las respuestas en función de la identidad y las funciones mediante el uso de AWS Identity and Access Management (IAM).

  • Restricciones del contexto de la sesión: evite que el modelo se desvíe asignando el alcance del agente a una tarea específica.

Con las barreras, las organizaciones pueden delegar de forma segura el razonamiento y la toma de decisiones en los agentes y, al mismo tiempo, mantener el control sobre el tono, el comportamiento y los límites.

Razonamiento automatizado además del RAG

El contenido fundamentado no es suficiente. Los agentes deben razonar sobre ese contenido. Aquí es donde el razonamiento automatizado basado en la LLM se vuelve fundamental. El razonamiento automatizado se centra en permitir a los agentes razonar de forma lógica, por ejemplo, sacar conclusiones, tomar decisiones o resolver problemas, sin la intervención humana directa.

El razonamiento automatizado permite lo siguiente:

  • Síntesis: compare, contraste o resuma varios documentos recuperados.

  • Lógica de saltos múltiples: conecta datos entre documentos o secciones para sacar conclusiones.

  • Toma de decisiones: elige entre datos contradictorios en función de reglas o preferencias.

  • Respuestas basadas en evidencia: proporcione citas y justificaciones para cada decisión.

Estas capacidades transforman una respuesta fundamentada en una respuesta razonada, y un agente de Amazon Bedrock pasa de ser una herramienta de recuperación a convertirse en un asesor con reconocimiento de dominio.

Con herramientas como el encadenamiento rápido, los ciclos de reflexión y evaluación y la orquestación con múltiples agentes, los sistemas de IA de los agentes pueden simular patrones de razonamiento de expertos, como el diagnóstico, la clasificación, la planificación o el análisis de riesgos.

Modelos Amazon Nova y generación conectada a tierra

Con Amazon Nova Pro y Amazon Nova Premier, los flujos de trabajo RAG fundamentados se extienden a entradas multimodales, lo que permite a los agentes interpretar y razonar a través de las siguientes fuentes:

  • Documentos anotados y archivos PDF

  • Diagramas, gráficos e imágenes incrustadas

  • Capturas de pantalla, formularios y visualizaciones de datos estructurados

  • Transcripciones de vídeo y presentaciones de diapositivas

Esta capacidad hace que Amazon Nova sea especialmente adecuado para los sectores que requieren un conocimiento profundo del contenido multimedia enriquecido, como los casos legales, las evaluaciones de seguros, los registros clínicos o los documentos reglamentarios.

Seguridad y gobierno en RAG

La fundamentación de los modelos empresariales introduce nuevas responsabilidades, por ejemplo a través de la RAG, bases de conocimiento o un ajuste más preciso. Estás inyectando tus propios datos y contexto en un modelo básico. Esto introduce nuevas responsabilidades que van más allá de la simple selección del modelo y la elaboración rápida. AWS recomienda los siguientes controles, que funcionan junto con barandas para facilitar un despliegue empresarial seguro:

  • Control de calidad de los datos de origen: las respuestas fundamentadas son tan fiables como los documentos, las bases de datos o en los APIs que se basan.

  • Clasificación y trazabilidad de los datos: clasifique y etiquete las fuentes de contenido para mostrar de dónde proviene una respuesta fundamentada.

  • Control de acceso: la inserción de documentos privados en los mensajes plantea riesgos de seguridad y privacidad. Restrinja el acceso a documentos o incrustaciones específicos a través de IAM.

  • Gestión de actualizaciones y desviaciones: los conocimientos básicos deben evolucionar con su empresa. Debe haber políticas de actualización y control de versiones y una reindexación automática para evitar que la información se desvíe o quede obsoleta en los resultados de los modelos.

  • Gobernanza de la inteligencia integrada: ahora está implementando el conocimiento organizacional mediante el uso de la IA. Esa capacidad viene acompañada de la obligación de validar, supervisar y controlar la forma en que se expresa, especialmente en ámbitos regulados como la sanidad y las finanzas.

  • Observabilidad inmediata: los sistemas fundamentados deben respetar los derechos de propiedad intelectual, los requisitos reglamentarios y las exenciones de responsabilidad corporativas. Capture todas las cadenas de prontitud, contexto y respuesta para garantizar el cumplimiento.

  • Registro de auditoría: realice un seguimiento de la recuperación y la inferencia a través de registros AWS CloudTrail CloudWatch estructurados.

  • Bucles de retroalimentación y corrección de los usuarios: las empresas son responsables de permitir a los usuarios señalar las bases incorrectas, las respuestas incorrectas o las fuentes irrelevantes, y de canalizar esos comentarios para mejorar su relevancia en el futuro.

  • Control de la memoria: elija si desea conservar la información inferida durante las sesiones.

  • Optimización del presupuesto simbólico: cuando la conexión a tierra agrega grandes fragmentos de texto, aumenta el uso (y el costo) de los tokens. Debes lograr un equilibrio entre la precisión del RAG y la rapidez económica, a menudo mediante la fragmentación, el resumen o el filtrado de metadatos.

Resumen de la fundamentación y el RAG

El RAG es una estrategia fundamental para una IA empresarial segura y escalable. Al basar los modelos básicos en un conocimiento interno acreditado, RAG transforma los grandes modelos lingüísticos, que pasan de ser generadores de uso general a asistentes de IA explicables, alineados con las políticas y conscientes del dominio. Este enfoque reduce las alucinaciones, refuerza el cumplimiento de las políticas internas y permite respuestas contextuales y basadas en hechos, lo que hace que la IA generativa sea adecuada tanto para aplicaciones orientadas a clientes como a empleados.

Cuando se combinan con el razonamiento automatizado y las barreras, los modelos fundamentados se convierten no solo en herramientas, sino en agentes responsables y confiables. Con la compatibilidad con RAG sin servidor de Amazon Bedrock y las capacidades multimodales de Amazon Nova, las organizaciones pueden escalar la IA segura y de alto rendimiento en toda su empresa sin administrar la infraestructura.