Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Analítica
AWSproporciona un conjunto completo de servicios de análisis que se adaptan a todas sus necesidades de análisis de datos y permite a las organizaciones de todos los tamaños e industrias reinventar sus negocios con los datos. Desde el almacenamiento y la administración hasta el gobierno de los datos, las acciones y las experiencias, AWS ofrece servicios diseñados específicamente que ofrecen la mejor relación precio-rendimiento, escalabilidad y el menor costo.
Cada servicio se describe después del diagrama. Para ayudarle a decidir qué servicio se adapta mejor a sus necesidades, consulte Elegir un servicio de análisis. AWS Para obtener más información, consulte Análisis en AWS.
Vuelva a AWSServicios de .
Amazon Athena
Amazon Athena es un servicio de consultas interactivo que facilita el análisis de datos en Amazon S3 con SQL estándar. Athena no requiere un servidor, por lo que no hay una infraestructura para administrar y solo pagará por las consultas que ejecute.
Athena es fácil de usar. Simplemente apunte a sus datos en Amazon S3, defina el esquema y empiece a consultar mediante SQL. La mayoría de los resultados se entregan en cuestión de segundos. Con Athena, no se necesitan tareas complejas de extracción, transformación y carga (ETL) para preparar sus datos para análisis. Esto facilita a cualquier persona con conocimientos de SQL el análisis rápido de conjuntos de datos a gran escala.
Athena está out-of-the-box integrado conAWS Glue Data Catalog, lo que le permite crear un repositorio de metadatos unificado en varios servicios, rastrear fuentes de datos para descubrir esquemas y llenar su catálogo con definiciones de tablas y particiones nuevas y modificadas, y mantener el control de versiones de los esquemas.
Amazon CloudSearch
Amazon CloudSearch es un servicio gestionado Nube de AWS que hace que sea sencillo y rentable configurar, gestionar y escalar una solución de búsqueda para su sitio web o aplicación. Amazon CloudSearch admite 34 idiomas y funciones de búsqueda populares, como el resaltado, la función de autocompletar y la búsqueda geoespacial.
Amazon DataZone
Amazon DataZone es un servicio de administración de datos que puede utilizar para publicar datos y ponerlos a disposición del catálogo de datos empresariales a través de su aplicación web personalizada. Puede acceder a sus datos de forma más segura independientemente de dónde estén almacenados: en AWS las instalaciones o en aplicaciones SaaS como Salesforce. Amazon DataZone simplifica su experiencia en AWS servicios como Amazon RedshiftAWS Glue, AWS Lake Formation Amazon Athena y Quick Suite.
Amazon EMR
Amazon EMR es la plataforma de macrodatos en la nube líder del sector para procesar grandes cantidades de datos mediante herramientas de código abierto como Apache Spark, ApacheHive, Apache, Apache Flink HBase, Apache Hudi y Presto. Amazon EMR facilita la configuración, el funcionamiento y el escalado de entornos de macrodatos al automatizar tareas que requieren mucho tiempo, como el aprovisionamiento de capacidad y el ajuste de clústeres. Con Amazon EMR, puede ejecutar análisis de escala de petabytes a menos de la mitad del costo de las soluciones en las instalaciones tradicionales y más de 3 veces más rápido que Apache Spark estándar. Puede ejecutar cargas de trabajo en EC2 instancias de Amazon, en clústeres de Amazon Elastic Kubernetes Service (Amazon EKS) o de forma local mediante Amazon EMR. AWS Outposts
Amazon FinSpace
Amazon FinSpacees un servicio de análisis y administración de datos diseñado específicamente para el sector de servicios financieros (FSI). FinSpace reduce de meses a minutos el tiempo que dedica a buscar y preparar petabytes de datos financieros para que estén listos para el análisis.
Las organizaciones de servicios financieros analizan los datos de los almacenes de datos internos, como los sistemas de cartera, actuariales y de administración de riesgos, así como los petabytes de datos de fuentes de datos de terceros, como los precios históricos de los valores bursátiles. Encontrar los datos correctos, obtener permisos para acceder a los datos conforme a lo establecido y prepararlos para el análisis puede llevar meses.
FinSpace elimina la pesada tarea de crear y mantener un sistema de gestión de datos para el análisis financiero. Con él FinSpace, puede recopilar datos y catalogarlos según conceptos empresariales relevantes, como la clase de activo, la clasificación del riesgo o la región geográfica. FinSpace facilita el descubrimiento y el intercambio de datos en toda su organización de acuerdo con sus requisitos de conformidad. Defina sus políticas de acceso a los datos en un solo lugar y FinSpace las haga cumplir, a la vez que conserva los registros de auditoría para permitir la elaboración de informes sobre el cumplimiento y las actividades. FinSpace también incluye una biblioteca de más de 100 funciones, como barras de tiempo y bandas de Bollinger, para que pueda preparar los datos para su análisis.
Amazon Kinesis
Amazon Kinesis facilita la recopilación, el procesamiento y el análisis de datos de streaming en tiempo real para que pueda obtener información oportuna y reaccionar rápidamente ante la nueva información. Amazon Kinesis ofrece capacidades clave para procesar con rentabilidad los datos de streaming en cualquier escala, además de la flexibilidad necesaria para elegir las herramientas que mejor se adapten a los requisitos de su aplicación. Con Amazon Kinesis puede ingerir datos en tiempo real, como vídeo, audio, registros de aplicaciones, secuencias de clics de sitios web y datos de telemetría de IoT para aplicaciones de machine learning (ML), análisis, etc. Amazon Kinesis le permite procesar y analizar los datos a medida que llegan y responder al instante, en lugar de tener que esperar a que se recopilen todos los datos para poder comenzar el procesamiento.
Amazon Kinesis ofrece actualmente cuatro servicios: Firehose, Managed Service para Apache Flink, Kinesis Data Streams y Kinesis Video Streams.
Amazon Data Firehose
Amazon Data Firehose es la manera más sencilla de cargar datos de streaming en almacenes de datos y herramientas de análisis. Puede capturar, transformar y cargar datos de streaming en Amazon S3, Amazon Redshift, Amazon OpenSearch Service y Splunk, lo que permite realizar análisis casi en tiempo real con las herramientas y paneles de inteligencia empresarial existentes que ya utiliza en la actualidad. Es un servicio completamente administrado que se escala automáticamente para adaptarse al rendimiento de los datos y no requiere ninguna administración permanente. También puede procesar por lotes, comprimir, transformar y cifrar los datos antes de cargarlos, con el fin de minimizar la cantidad de almacenamiento utilizado en el destino y aumentar la seguridad.
Puede crear fácilmente una transmisión de entrega de Firehose a partir deConsola de administración de AWS, configurarla con unos pocos clics y empezar a enviar datos a la transmisión desde cientos de miles de fuentes de datos para cargarlos de forma continua, AWS todo en tan solo unos minutos. También puede configurar su flujo de entrega para convertir automáticamente los datos entrantes a formatos de columnas, como Apache Parquet y Apache ORC, antes de que los datos se entreguen a Amazon S3, con el fin de obtener un almacenamiento y un análisis rentables.
Amazon Managed Service para Apache Flink
Amazon Managed Service para Apache Flink es la manera más sencilla de analizar los datos de streaming, obtener información procesable y responder a las necesidades de su empresa y sus clientes en tiempo real. Amazon Managed Service for Apache Flink reduce la complejidad de crear, administrar e integrar aplicaciones de streaming con otros AWS servicios. Los usuarios de SQL pueden consultar fácilmente los datos de streaming o crear aplicaciones de streaming completas mediante plantillas y un editor SQL interactivo. Los desarrolladores de Java pueden crear rápidamente aplicaciones de streaming sofisticadas mediante integraciones de AWS y bibliotecas Java de código abierto para transformar y analizar los datos en tiempo real.
Amazon Managed Service para Apache Flink se encarga de todo lo necesario para ejecutar sus consultas de manera continua y escala automáticamente para adaptarse al volumen y a la tasa de rendimiento de los datos entrantes.
Amazon Kinesis Data Streams
Amazon Kinesis Data Streams es un servicio de streaming de datos en tiempo real duradero y escalable. Kinesis Data Streams puede capturar de forma continua gigabytes de datos por segundo provenientes de cientos de miles de orígenes, como secuencias de clics en sitios web, flujos de eventos de bases de datos, transacciones financieras, fuentes de redes sociales, registros de TI y eventos de seguimiento de ubicación. Los datos recopilados están disponibles en milisegundos para permitir casos de uso de análisis en tiempo real, como paneles de control en tiempo real, detección de anomalías en tiempo real y precios dinámicos, entre otros.
Amazon Kinesis Video Streams
Amazon Kinesis Video Streams facilita la transmisión segura de vídeo desde los dispositivos conectados AWS para fines de análisis, aprendizaje automático, reproducción y otros tipos de procesamiento. Kinesis Video Streams aprovisiona automáticamente y escala con elasticidad toda la infraestructura necesaria para ingerir datos de vídeo en streaming desde millones de dispositivos. También almacena, cifra e indexa de forma duradera los datos de vídeo de sus transmisiones y le permite acceder a ellos. easy-to-use APIs Kinesis Video Streams le permite reproducir vídeos para verlos en directo y bajo demanda, y crear rápidamente aplicaciones que aprovechen la visión artificial y el análisis de vídeo mediante la integración con Amazon Rekognition Video y bibliotecas para marcos de aprendizaje automático MxNet como TensorFlow Apache y OpenCV.
OpenSearch Servicio Amazon
Amazon OpenSearch Service (OpenSearch Service) facilita la implementación, la seguridad, el funcionamiento y el escalado OpenSearch para buscar, analizar y visualizar datos en tiempo real. Con Amazon OpenSearch Service, obtiene easy-to-use APIs capacidades de análisis en tiempo real para impulsar casos de uso como el análisis de registros, la búsqueda de texto completo, la supervisión de aplicaciones y el análisis del flujo de clics, con disponibilidad, escalabilidad y seguridad de nivel empresarial. El servicio ofrece integraciones con herramientas de código abierto, como OpenSearch Dashboards y Logstash, para la ingesta y visualización de datos. También se integra perfectamente con otros AWS servicios, como Amazon Virtual Private Cloud (Amazon VPC), AWS Key Management Service(AWS KMS), Amazon Data Firehose, AWS Identity and Access Management(IAM) AWS Lambda, Amazon Cognito y Amazon CloudWatch, para que pueda pasar rápidamente de datos sin procesar a información procesable.
Amazon OpenSearch Serverless
Amazon OpenSearch Serverless es una opción sin servidor de Amazon OpenSearch Service. Como desarrollador, puede usar OpenSearch Serverless para ejecutar cargas de trabajo a escala de petabytes sin necesidad de configurar, administrar ni escalar los clústeres. OpenSearch Obtendrá los mismos tiempos de respuesta interactivos en milisegundos que OpenSearch Service con la sencillez de un entorno sin servidor.
El motor vectorial de Amazon OpenSearch Serverless añade una capacidad de almacenamiento y búsqueda vectorial simple, escalable y de alto rendimiento para ayudar a los desarrolladores a crear experiencias de búsqueda aumentadas por ML y aplicaciones generativas de IA sin tener que gestionar la infraestructura de bases de datos vectoriales. Los casos de uso de las colecciones de búsquedas vectoriales incluyen búsquedas de imágenes, búsquedas de documentos, recuperación de música, recomendaciones de productos, búsquedas de vídeos, búsquedas basadas en la ubicación, así como detección de fraudes y anomalías.
Amazon Redshift
Amazon Redshift es el almacén de datos en la nube más utilizado. Permite analizar todos los datos de manera rápida, sencilla y rentable mediante SQL estándar y las herramientas de inteligencia empresarial (BI) existentes. Le permite ejecutar consultas analíticas complejas contra terabytes o petabytes de datos estructurados y semiestructurados, mediante una sofisticada optimización de consultas, almacenamiento en columnas en almacenamiento de alto rendimiento y finalización masiva de consultas en paralelo. La mayoría de los resultados se obtienen en cuestión de segundos. Puede empezar con algo pequeño por tan solo 0,25 USD la hora sin compromisos y ampliarlo hasta petabytes de datos por 1000 USD por terabyte al año, menos de una décima parte del costo de las soluciones en las instalaciones tradicionales.
Amazon Redshift sin servidor
Amazon Redshift sin servidor facilita la ejecución y el escalado de análisis sin tener que aprovisionar ni administrar la infraestructura del almacén de datos. Los desarrolladores, los científicos de datos y los analistas pueden trabajar en bases de datos, almacenes de datos y lagos de datos para crear aplicaciones de informes y paneles, realizar análisis prácticamente en tiempo real, compartir datos y colaborar con respecto a ellos, y crear y entrenar modelos de machine learning (ML). Convierta grandes cantidades de datos en información valiosa en cuestión de segundos. Amazon Redshift sin servidor aprovisiona automáticamente y escala de manera inteligente la capacidad del almacén de datos para ofrecer un rendimiento rápido incluso para las cargas de trabajo más exigentes e impredecibles. Además solo pagará por lo que use. Solo tiene que cargar los datos y empezar a realizar consultas de inmediato en Amazon Redshift Query Editor o en su herramienta de inteligencia empresarial (BI) favorita y seguir disfrutando de la mejor relación precio-rendimiento y de las conocidas funciones de SQL en easy-to-use un entorno sin necesidad de administración.
Quick Suite
Quick Suite es un servicio de inteligencia empresarial (BI) rápido y basado en la nube que le permite ofrecer información a todos los miembros de su organización con facilidad. QuickSight le permite crear y publicar paneles interactivos a los que se puede acceder desde navegadores o dispositivos móviles. Puede integrar paneles de control en sus aplicaciones, lo que proporciona a sus clientes eficaces análisis de autoservicio. Quick Suite se amplía fácilmente a decenas de miles de usuarios sin necesidad de instalar ningún software, implementar servidores o administrar una infraestructura.
AWS Clean Rooms
AWS Clean Rooms ayuda a las empresas y a sus socios a analizar y colaborar en sus conjuntos de datos colectivos con mayor facilidad y seguridad, sin compartir ni copiar los datos subyacentes de los demás. Gracias a AWS Clean Rooms esto, los clientes pueden crear una sala limpia de datos segura en cuestión de minutos y colaborar con cualquier otra empresa Nube de AWS para generar información única sobre las campañas publicitarias, las decisiones de inversión y la investigación y el desarrollo.
AWS Data Exchange
AWS Data Exchange facilita la búsqueda, la suscripción y el uso de datos de terceros en la nube. Entre los proveedores de datos cualificados se encuentran marcas líderes en su categoría, como Reuters, que recopila datos de más de 2,2 millones de noticias únicas al año en varios idiomas; Change Healthcare, que procesa y anonimiza más de 14 000 millones de transacciones de atención médica y 1 billón de USD en reclamaciones al año; Dun & Bradstreet, que mantiene una base de datos de más de 330 millones de registros comerciales globales; y Foursquare, cuyos datos de ubicación se derivan de 220 millones de consumidores únicos e incluye más de 60 millones de centros comerciales mundiales.
Una vez suscrito a un producto de datos, puede usar la AWS Data Exchange API para cargar datos directamente en Amazon S3 y analizarlos con una amplia variedad de servicios de AWS análisis y aprendizaje automático. Por ejemplo, las aseguradoras de propiedades pueden suscribirse a los datos para analizar los patrones climáticos históricos y calibrar los requisitos de cobertura de seguros en diferentes geografías; los restaurantes pueden suscribirse a los datos de población y ubicación para identificar las regiones óptimas para la expansión; los investigadores académicos pueden realizar estudios sobre el cambio climático suscribiéndose a los datos sobre las emisiones de dióxido de carbono; y los profesionales de la salud pueden suscribirse a los datos agregados de los ensayos clínicos históricos para acelerar sus actividades de investigación.
Para los proveedores de datos, AWS Data Exchange facilita llegar a los millones de AWS clientes que migran a la nube al eliminar la necesidad de crear y mantener una infraestructura para el almacenamiento, la entrega, la facturación y la asignación de derechos de los datos.
AWS Data Pipeline
AWS Data Pipelinees un servicio web que le ayuda a procesar y mover datos de forma fiable entre distintos servicios AWS informáticos y de almacenamiento, así como entre fuentes de datos locales, a intervalos específicos. Con élAWS Data Pipeline, puede acceder periódicamente a sus datos donde están almacenados, transformarlos y procesarlos a escala y transferir los resultados de manera eficiente a los servicios de AWS, como Amazon S3, Amazon RDS,Amazon DynamoDB y Amazon EMR.
AWS Data Pipelinele ayuda a crear fácilmente cargas de trabajo de procesamiento de datos complejas que sean tolerantes a errores, repetibles y de alta disponibilidad. No tiene que preocuparse por garantizar la disponibilidad de los recursos, gestionar las dependencias entre tareas, reintentar errores transitorios o tiempos de espera en tareas individuales o crear un sistema de notificación de errores. AWS Data Pipelinetambién le permite mover y procesar datos que antes estaban guardados en silos de datos locales.
AWSResolución de entidades
AWSEntity Resolution es un servicio que le ayuda a comparar y vincular los registros relacionados almacenados en múltiples aplicaciones, canales y almacenes de datos sin necesidad de crear una solución personalizada. Mediante el uso de técnicas de aprendizaje automático flexibles y configurables y basadas en reglas, AWS Entity Resolution puede eliminar los registros duplicados, crear perfiles de clientes conectando diferentes interacciones con los clientes y personalizar las experiencias en las campañas de publicidad y marketing, los programas de fidelización y el comercio electrónico. Por ejemplo, puede crear una vista unificada de las interacciones con los clientes vinculando los eventos recientes, como los clics en anuncios, el abandono del carrito y las compras, en un ID de coincidencia único.
AWS Glue
AWS Glue es un servicio de extracción, transformación y carga (ETL) totalmente administrado que prepara y carga sus datos para el análisis. Puede crear y ejecutar un trabajo ETL con unos cuantos clics en la Consola de administración de AWS. Basta AWS Glue con apuntar a los datos almacenados enAWS, AWS Glue descubrirlos y almacenar los metadatos asociados (como la definición de la tabla y el esquema) en elAWS Glue Data Catalog. Una vez catalogados sus datos, se podrán buscar, consultar y estarán disponibles para ETL inmediatamente.
AWS GlueLos motores de integración de datos proporcionan acceso a los datos mediante Apache PySpark, Spark y Python. Con la incorporación de AWS Glue for Ray, puede escalar aún más sus cargas de trabajo con Ray, un marco de cómputo unificado de código abierto.
AWS GlueData Quality puede medir y supervisar la calidad de los datos de los lagos de datos, almacenes de datos y otros repositorios de datos basados en Amazon S3. Calcula automáticamente las estadísticas, recomienda normas de calidad y puede monitorizar y avisarle cuando detecte que faltan datos, o que son obsoletos o incorrectos. Puede acceder a ellos en los trabajos de AWS Glue Data Catalog ETL AWS Glue Data Catalog y en ellos.
AWS Lake Formation es un servicio que facilita la configuración de un lago de datos seguro en cuestión de días. Un lago de datos es un repositorio centralizado, seleccionado y seguro que almacena todos los datos, tanto en su forma original como preparado para su análisis. Un lago de datos le permite desglosar los silos de datos y combinar diferentes tipos de análisis para obtener información y guiarlo a tomar mejores decisiones empresariales.
Sin embargo, la configuración y la administración de los lagos de datos actuales implican muchas tareas manuales, complicadas y que requieren mucho tiempo. Este trabajo incluye la carga de datos de diversos orígenes, la supervisión de esos flujos de datos, la configuración de particiones, la activación del cifrado y la administración de las claves, la definición de las tareas de transformación y la supervisión de su funcionamiento, la reorganización de los datos en un formato de columnas, la configuración de los ajustes de control de acceso, la deduplicación de los datos redundantes, la coincidencia de los registros enlazados, la concesión del acceso a los conjuntos de datos y la auditoría del acceso a lo largo del tiempo.
Crear un lago de datos con Lake Formation es tan sencillo como definir orígenes de datos y qué acceso a los datos y qué políticas de seguridad desea aplicar. A continuación, Lake Formation recopila y catalogar datos de bases de datos y almacenamiento de objetos, mueve los datos a su nuevo lago de datos de Amazon S3, limpia y clasifica sus datos mediante algoritmos de machine learning y protege el acceso a su información confidencial. De este modo, los usuarios pueden acceder a un catálogo centralizado de datos en el que se describen los conjuntos de datos disponibles y su uso adecuado. Luego, sus usuarios aprovechan estos conjuntos de datos con los servicios de análisis y aprendizaje automático que elijan, como Amazon EMR para Apache Spark, Amazon Redshift, Amazon Athena SageMaker , AI y Quick Suite.
Amazon Managed Streaming for Apache Kafka (Amazon MSK)
Amazon Managed Streaming para Apache Kafka (Amazon MSK) es un servicio completamente administrado que le permite crear y ejecutar aplicaciones que utilizan Apache Kafka para procesar datos de transmisión. Apache Kafka es una plataforma de código abierto para crear canalizaciones y aplicaciones de datos de streaming en tiempo real. Con Amazon MSK, puede usar Apache Kafka APIs para poblar lagos de datos, transmitir los cambios hacia y desde las bases de datos y potenciar las aplicaciones de ML y análisis.
Los clústeres de Apache Kafka son difíciles de configurar, escalar y administrar en producción. Cuando ejecuta Apache Kafka por su cuenta, necesita aprovisionar servidores, configurar Apache Kafka manualmente, reemplazar los servidores cuando fallan, organizar las actualizaciones y parches de servidores, diseñar el clúster para garantizar una alta disponibilidad, garantizar que los datos se almacenen y protejan de manera duradera, configurar la supervisión y las alarmas, y planificar cuidadosamente los eventos de escalado para admitir los cambios de carga. Amazon MSK le facilita la creación y ejecución de aplicaciones de producción en Apache Kafka sin necesidad de tener experiencia en administración de infraestructuras de Apache Kafka. Esto significa que dedica menos tiempo a administrar la infraestructura y más tiempo a desarrollar aplicaciones.
Con unos pocos clics en la consola de Amazon MSK, puede crear clústeres de Apache Kafka de alta disponibilidad con ajustes y configuraciones basados en los procedimientos recomendados de implementación de Apache Kafka. Amazon MSK aprovisiona y ejecuta automáticamente los clústeres de Apache Kafka. Amazon MSK supervisa de forma continua el estado del clúster y reemplaza automáticamente los nodos en mal estado sin que se produzca tiempo de inactividad en la aplicación. Además, Amazon MSK protege su clúster de Apache Kafka mediante el cifrado de los datos en reposo.
Vuelva a AWSServicios de .