Logo - Keyrus
  • Playbook
  • Servicios
    Asesoría y Consultoría en Datos
    Soluciones de Datos y Analítica
    Inteligencia Artificial (IA)
    Gestión del Desempeño Empresarial (EPM)
    Digital y Multi-Experiencia
  • Insights
  • Partners
  • Carreras
  • Sobre nosotros
    Lo que nos distingue
    Propósito
    Innovación & Tecnologías
    Compromiso de Keyrus
    Ética & Cumplimiento
    Inversores
    Equipo de líderes
    Marcas
    Localizaciones
  • Contacta con nosotrosÚnete a nosotros

Blog post

Diccionario Analytics: conviértete en un auténtico experto de los datos

La tecnología evoluciona a la velocidad de la luz y crea constantemente un nuevo paradigma de términos y conceptos que evolucionan a su misma velocidad. Expresiones como Big Data, Data Analytics o Inteligencia artificial ya son utilizadas diariamente por esas empresas que afrontan su presente y su futuro desde una transformación digital.

Escuchamos esta nueva “jerga” y nos da la impresión de que nos estén hablando en un nuevo idioma inventado. Pero, ¿qué significan realmente todos estos conceptos que parece sacados de la peli de Matrix?

A

Algoritmo | Análisis de Datos | Agregación de Datos | Arquitectura de Datos | Automatización | Assesments 360º | Análisis del sentimiento | Analítica descriptiva | Analítica de diagnóstico | Analítica predictiva | Analítica prescriptiva | Análisis multicanal | Apificación

Algoritmo

Conjunto ordenado y finito de operaciones que nos permite hallar la solución a un problema o ejecutar una acción. Simplemente, consiste en una serie de reglas o instrucciones sencillas que, siguiendo unos pasos bien definidos, llegan a una solución.

Aunque es un término que asociamos con las matemáticas, la informática y demás áreas relacionadas, para entenderlo mejor, en nuestras tareas cotidianas utilizamos constantemente algoritmos como por ejemplo una receta de cocina, que nos explica paso a paso cómo crear una comida con una cantidad concreta de ingredientes, seguir el manual de instrucciones para montar un mueble o incluso lavarnos los dientes.

Los ordenadores funcionan igual: cogen una cantidad de datos y a través de un conjunto de instrucciones y operaciones secuenciales (es decir, que van una después de la otra), permiten solucionar problemas y ejecutar acciones o programas. Es crucial para avances tecnológicos como la Inteligencia Artificial.

Análisis del sentimiento

Se trata de una técnica analítica que utiliza la estadística, el procesamiento del lenguaje natural y el aprendizaje automático para identificar el significado emocional de las comunicaciones y extraer información subjetiva de los contenidos digitales. Con este método, se puede saber qué intención tenía la persona al escribir, por ejemplo, una reseña: alegría, enfado, preocupación o tristeza. Se utiliza para evaluar los mensajes de los clientes, las llamadas por teléfono, las reseñas, publicaciones en redes sociales, etc. Es muy útil ya que nos ayuda a conocer el cambio de actitud hacia una marca, producto o servicio y poder rectificar en cómo lo estamos haciendo y tomar mejores decisiones.  

Analítica de datos

La analítica de datos o data analytics es una disciplina centrada en la extracción de información de los datos. Comprende los procesos, las herramientas y las técnicas de análisis y gestión de datos, incluida la recopilación, la organización y el almacenamiento de datos.

La analítica de datos permite a las empresas transformar digitalmente su negocio y su cultura a través del uso de todos sus datos (en tiempo real, históricos, no estructurados, estructurados, cualitativos) para encontrar tendencias, identificar patrones y generar el conocimiento suficiente para resolver problemas e identificar oportunidades conectando la inteligencia y la acción.

Ha adquirido una importancia creciente en las empresas como medio para analizar y dar forma a los procesos de negocio y mejorar la toma de decisiones y los resultados empresariales.

Agregación de datos

Dentro de la analítica de datos que hemos hablado en la definición anterior, los equipos de análisis de datos utilizan una serie de técnicas de gestión de datos e información. Entre ellas, se encuentra la agregación de datos, que es el acto de recopilar todos los datos juntos. La información se busca, almacena y presenta en un formato resumido para poder procesarla y así lograr objetivos, actividades comerciales o realizar análisis.

Muchas empresas almacenan datos de muchas fuentes distintas. Gracias a la agregación de datos, las organizaciones pueden seleccionar rigurosamente de dónde proviene cada conjunto de esos datos para después tener una versión resumida de esa información.

Arquitectura de Datos

Si la analítica de datos es la casa entera, la arquitectura de datos nos indica cómo construirla. Una empresa que quiera sacar beneficio de sus datos debe sí o sí tener muy bien diseñada la arquitectura de estos.

Por tanto, la arquitectura de datos es el conjunto de modelos, políticas y reglas que nos dicen qué datos se van a recopilar y cómo se van a almacenar, organizar y explotar con el objetivo de que sean aprovechables y útiles. Orientan al Data Governance (otro de los implicados en la causa), para que la gestión de la información de las empresas sea segura y efectiva a través de un “esquema” con las herramientas adecuadas y buenas prácticas y estándares para su implementación.

Automatización

Proviene del verbo “automatizar”, que significa que determinados movimientos se conviertan en automáticos (es decir, que se desarrollen por sí solos). Gracias a la automatización, con el uso de la tecnología las acciones se pueden realizar casi sin necesidad de las personas. Se utiliza en cualquier área en el que se lleven a cabo tareas repetitivas. Pero sobre todo es común, en los sectores de fabricación, automóviles y robótica así como en el mundo de la tecnología y la informática.

Por ejemplo, ¿alguna vez has entrado a una página web y te ha saltado un chatbot para ayudarte, sea la hora que sea? Probablemente si son las 2 de la mañana los empleados estén durmiendo, por lo que no te podrían atender. Por ello, las empresas están recurriendo a estas soluciones de automatización a través de estos chatbots para ofrecer ayuda las 24 horas del día, los 7 días de la semana. Estos programas informáticos usan el procesamiento del lenguaje natural, el aprendizaje automático y la inteligencia artificial para procesar lo que decimos los humanos, atendiéndonos de manera inmediata, respondiendo esas preguntas de primer contacto con la marca.

Assesments 360º

Consiste en una evaluación 360º, global, de todo el negocio data del cliente; de todos los ámbitos, rincones y departamentos dónde se generan datos en una organización para identificar su data maturity, cuáles son sus necesidades de Data Analytics y se define un roadmap con el desarrollo y aplicación de casos de uso de gran impacto adecuado de cara a alinear su estrategia de datos con los objetivos de su negocio.

Analítica descriptiva

Se ocupa de estudiar los datos históricos y actuales de cómo se están haciendo las cosas hasta ahora. Como su propio nombre indica, describir lo que ha pasado. Responde a la pregunta de: qué sucedió y qué está sucediendo.

Por ejemplo, con este análisis un médico puede saber cuántos pacientes fueron hospitalizados por COVID-19 el mes pasado o un retailer, el promedio de las naranjas que vende semanalmente.

Obtiene estadísticas, gráficos o tablas fáciles de entender procesando múltiples fuentes de datos para facilitar información útil del estado actual mediante la identificación de tendencias. Sin embargo, este tipo de análisis simplemente nos indica que algo está mal o bien, sin explicar por qué. Para ello, es necesario combinarlo con otros tipos de analíticas de datos como las que vamos a hablar a continuación.

Analítica de diagnóstico

Como su propio nombre indica, se realiza un diagnóstico: por qué sucedió algo.

Si fuéramos al hospital porque nos duele la garganta, el análisis descriptivo sería algo como la descripción de nuestros síntomas (dolor al tragar, fiebre, malestar general) y el diagnóstico nos diría el por qué: tenemos anginas.

El análisis de diagnóstico utiliza datos (a menudo generados a través del análisis descriptivo) para descubrir los factores o las razones del rendimiento pasado.  Gracias al este análisis, existe la posibilidad de profundizar, averiguar las dependencias e identificar patrones. 

Analítica predictiva

¿Qué es probable que ocurra en el futuro? Nos permite vaticinar lo que va a pasar con antelación. Hace una mirada hacia el futuro y nos ayuda a entender cómo puede evolucionar el entorno y nuestra compañía en función de lo que está ocurriendo y lo que estamos haciendo nosotros.

Por ejemplo: en base a los datos extraídos anteriormente, podemos determinar las ventas que haremos en el próximo mes.

El análisis predictivo aplica técnicas como el modelado estadístico, la previsión y el aprendizaje automático o machine learning a los resultados del análisis descriptivo y de diagnóstico para hacer predicciones sobre los resultados futuros. La analítica predictiva se considera a menudo un tipo de «analítica avanzada», y con frecuencia depende del aprendizaje automático y/o del aprendizaje profundo.

Analítica prescriptiva

¿Qué debemos hacer? Analiza los datos para encontrar la mejor opción entre una amplia gama de variantes para eliminar un problema del futuro o aprovechar al máximo una tendencia prometedora. Nos indica qué acción tomar.

La analítica prescriptiva es un tipo de analítica avanzada que nos informa de lo que debiera suceder, aplicando pruebas y otras técnicas, y en función de ese escenario busca mejorar el resultado proporcionándonos soluciones específicas para obtener los resultados que deseamos, optimizar nuestros recursos y aumentar la eficiencia operativa.

En las empresas, para realizar análisis prescriptivos se utilizan el machine learning, las reglas de negocio y los algoritmos.

Análisis multicanal

Es la práctica que permite escuchar y obtener información a través de los diferentes touchpoints por los que tus clientes se comunican contigo, es decir, todos y cada uno de los canales de comunicación por los que interactúan con tu marca. Después, estos datos se combinan en un entorno de software que permite informes y análisis exhaustivos.

Al unificar toda esa información y analizarla, se puede responder a tiempo a sus necesidades para ofrecerles una experiencia omnicanal personalizada, anticipar los acontecimientos y tomar mejores decisiones.

Apificación

Para poder definirla, tenemos que empezar por el principio. ¿Qué es una API? Es una interfaz que permite que diferentes programas informáticos puedan interactuar entre sí. Explicado simplemente, se trataría del idioma que utilizan las aplicaciones para poder mantener una comunicación entre sí. Estas reglas permiten que los diferentes softwares puedan mantener interacciones y puedan complementarse. De esta manera, se aprovechan infraestructuras ya existentes y se ahorran tiempo y recursos.

Esto no es ninguna novedad, ya que existen desde hace años, sin embargo, con la evolución de la tecnología, el Data Science y la Inteligencia Artificial, han sufrido una remodelación, existiendo antes únicamente como una interfaz interna para la comunicación de aplicaciones de una misma empresa, a ser actualmente un medio para interrelacionar aplicaciones y datos con terceros.

Por tanto, la apificación es un modelo de negocio que se basa en una interfaz que permite que una aplicación interactúe con otra. Pongamos un ejemplo para entenderlo mejor: la Smart Home de Samsung nos permite manejar los electrodomésticos y dispositivos del hogar a través del teléfono móvil. Desde la tv hasta la lavadora, todo puede estar interconectado. Y esto es posible gracias a una API que opera a través de la nube.

B

Business Intelligence | Big Data | BlockChain

Business Intelligence

Es el conjunto de procesos, estrategias y herramientas que transforman los datos en información y la información en conocimiento de forma que se puedan optimizar la toma de decisiones y el rendimiento de los negocios. En plena transformación digital, tomar decisiones bien informadas y respaldas es uno de los principales factores de diferenciación de las empresas.

Así, el BI representa los sistemas que juegan un papel clave en el proceso estratégico de una entidad. No es solo manejar datos, sino trabajar a partir de la información que los datos aportan y usarla de forma inteligente para mejorar las estrategias de un negocio.

Hay muchas soluciones de BI. Al apoyarse en tecnologías que se están desarrollando rápidamente y mejorando constantemente, las soluciones van cubriendo nuevos aspectos y puliendo otros. Así que las que fueron pioneras, han ido dando a paso a otras que han ido surgiendo con el tiempo y así sucesivamente. Por ello se dice que están en un constante proceso de transformación. Algunos ejemplos de Business Intelligence podría ser el forecast de ventas, los cuadros de mando o almacenes de datos especiales (Datawarehouse o Datamart).

Big Data

Cada día las empresas producen miles de millones de conjuntos datos, tanto estructurados como no estructurados. Eso es el Big Data de manera simplificada. Este gran volumen, complejidad y velocidad de crecimiento de la información hace que su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales sea muy complicada por no decir imposible.

Dicho de otro modo, el Big Data está formado por conjuntos de datos de mayor tamaño y más complejos, especialmente procedentes de nuevas fuentes de datos. Estos conjuntos de datos son tan voluminosos que el software de procesamiento de datos tradicional sencillamente no puede gestionarlos. Por ello, necesitan aplicaciones informáticas no convencionales para poder tratarlos correctamente.

Sin embargo, no es la cantidad de datos lo importante. Lo verdaderamente útil del Big Data es lo que las organizaciones hacen con los datos. Estos volúmenes masivos de información pueden utilizarse para abordar problemas empresariales que antes no hubiera sido posible detectar y solucionar, tomar mejores decisiones y ejecutar movimientos de negocios estratégicos.

Blockchain   

Se trata de un conjunto de tecnologías que permiten la transferencia de un activo o un valor de un lugar a otro sin intervención de terceros como los bancos. Esta tecnología propone una solución transparente donde la autenticidad de los implicados es verificada por una red de nodos o cadena de bloques. Esta cadena almacena la información en la red y la vincula por orden cronológico. Cuando agregas algún tipo de dato, este no se puede modificar por lo que supone un medio transparente y seguro. Es conocido por su papel protagonista en el mundo de las criptomonedas. 

C

Ciberseguridad | Cloud | Clustering | Cloud Data Warehouse | Código | Cross Selling | Customer Experience | Customer Journey

Ciberseguridad 

Los ciberataques son aquellas actividades que tratan de agredir el sistema informático de una entidad o empresa para bloquearlo, controlarlo, dañarlo u extraer información.

La ciberseguridad se encarga justamente de que esto no ocurra, y comprende el conjunto de prácticas, medidas y equipos destinados a proteger y controlar la seguridad informática de una empresa o entidad.

Cloud

Significa, literalmente nube. En términos informáticos, consiste en ofrecer servicios de computación a través de una red de servidores remotos conectados a Internet para almacenar, administrar y procesar datos, servidores, bases de datos, redes y software.

Para que lo entendamos mejor: cuando hablamos de la nube nos referimos del almacenamiento de datos fuera de nuestros dispositivos. Por ejemplo, tú guardas un documento en tu portátil en la carpeta “Documentos” y solo podrás acceder a él desde ese PC. Sin embargo, si guardas el documento en un almacenamiento en la nube como Google Drive, el documento estará en un ordenador ajeno, pero tú podrás verlo desde tu portátil, aunque no la hayas guardado ahí. Este servicio permite que el usuario no tenga que instalar nada en su ordenador, pero a su vez pueda tener acceso a diversos servicios.

Clustering

Antes de definirlo, tenemos que saber lo que es un “clúster”. Se trata de un conjunto de elementos (datos), que son similares entre ellos y distintos de los elementos de otros clústeres. Los algoritmos de Machine Learning, permiten descifrar estructuras y patrones dentro entre todos esos datos, no aparentes para el ser humano, y agruparlos en clústeres diferenciados.

Así, el Clustering, es el proceso de dividir todos los datos en grupos (clústeres), basados en los patrones de los datos. Como hemos visto, cuando encuentra similitudes entre ellos, los junta en el mismo clúster. Así, es posible agrupar datos semejantes sin necesidad de supervisión. Es una de las formas de aprendizaje no supervisado más utilizada y es una gran herramienta para dar sentido a datos no etiquetados y agrupar datos en grupos similares.

Cloud Data Warehouse

Se trata de un repositorio unificado en el que los datos se almacenan en la nube. En lugar de que sea la propia empresa la que gestione e instale los servidores, lo hace un proveedor. Este proveedor ofrece un sistema de BI configurado, optimizado y funcionando en Cloud. Así, se tiene acceso a un casi infinito y económico espacio de almacenaje para trabajar directamente, dónde se necesita únicamente enviar los datos y solicitar que se ejecuten las operaciones cuando sean necesarias. Proporciona una escalabilidad mejorada, se externaliza la gestión y seguridad del Data Warehouse al fabricante y se tiene el potencial de pagar solo por el espacio y recursos que realmente se están utilizando.

Código  

En un contexto informático, los códigos son la esencia del lenguaje que manejan las computadoras y comprenden el conjunto de instrucciones desarrolladas en lenguaje de programación que deben ser interpretadas para poder ejecutarse en un ordenador.  

Cross-Selling  

El cross-selling o ventacruzada es una tácticacomercial y de marketing que tiene como objetivo incrementar los ingresos del negocio a través de la oferta de un producto complementario al que ya se ha decidido comprar. Esta técnica, busca que un cliente, que ya había adquirido un producto, compre algo nuevo diferente al anterior.   Por ejemplo, al comprar una cámara por internet e ir a pagar te recomiendan un trípode, una funda para guardar la cámara, un objetivo, un croma, etc. Para articular estas sugerencias, el cross-selling lleva detrás modelos de recomendación. Estos pueden ser por filtrado colaborativo, donde te recomiendan artículos que otros usuarios similares a ti han comprado o filtrado por contenido, donde te recomiendan productos o servicios similares o relacionados con lo que has comprado. En definitiva, el cross-selling busca aumentar la cesta de la compra ofreciéndote recomendaciones de productos complementarios a lo que ya has adquirido, con el fin de incrementar los ingresos del negocio.  

Customer Experience  

Se trata de la percepción y las emociones que un cliente siente respecto a una marca fruto de su interacción con ella, tanto antes, como durante y después de la compra. Es el recuerdo que se genera en la mente de los consumidores como consecuencia de su relación con esa empresa.  Los consumidores de hoy en día se han vuelto más informados, exigentes e impacientes que nunca. Han cambiado y es el deber de las empresas entender cómo piensan, qué esperan de ellas y cómo lograr retenerles a través de la mejor experiencia posible.   Ya no solo se trata de la calidad de los productos, si no de que les faciliten lo que quieren, cuando quieren y dónde quieren y, sobre todo, haciéndoles vivir una experiencia agradable y positiva que marque la diferencia con el resto. Porque si no es así, no dudarán ni un instante en irse con la competencia. Por ello, hoy en día el Customer Experience es uno de los objetivos de mejora actual de todos los negocios. A través del análisis de datos, las empresas son capaces de conocer más y mejor a sus clientes y así, anticiparse a sus movimientos y comportamientos para actuar. 

Customer Journey 

 ¿Alguna vez te has planteado que todas las compras que haces requieren de un proceso de compra previo al momento de la transacción? Ese proceso se llama CustomerJourney y reúne todas las fases por las que pasa un cliente desde que identifica o se le crea una necesidad hasta que obtiene el producto o servicio para solucionarla.  

Este proceso puede ser cortísimo, como puede ser una compra impulsiva en la que pasas en frente de un escaparate, te encantan unas zapatillas y las compras inmediatamente, como durar meses, incluso años, como la compra de un coche o una casa que requiere más tiempo de reflexión, más inversión, comparaciones, consejos, etc.  

En el customerjourney se combinan todos los touchpoints del mundo off y on: página web, redes sociales, tienda física, publicidad exterior, tv, atención telefónica, mailing, publicidad digital, etc.

D

Dark Data | Dashboard | Data Center | | Data Cleansing | Data Driven | Data Fabric | Data Lake | Data Mesh | Data Mining | Data Modeling | Data Warehouse | Dato | Datos estructurados | Datos externos | Datos no estructurados | Data Journey | Data maturity | Data Scientist | Data Set | DBA (Database administrator) | Deep Learning | Decision Intelligence | Dynamic pricing

Dark Data  

Son aquellos datos no estructurados, no etiquetados y desaprovechadosque las compañías generan y almacenan durante sus actividades empresariales habituales, pero que no se analizan ni se monetizan. Es información que está en la sombra (por eso se le llama DarkData) y se encuentra oculta, sin embargo, es posible explotarla, sacarle valor y obtener un beneficio de su análisis.  

Data Driven  

Cuando una empresa emplea un enfoque Data Driven, significa que utiliza sus datos para tomar mejores decisiones estratégicas en su día a día. Al analizar su información, las organizaciones son capaces de entender mejor sus negocios y conocer más a sus clientes, lo que les permite ejecutar acciones más efectivas para aumentar su rendimiento y tener una ventaja competitiva frente al resto.  

Data Scientist

Un Data Scientist o científico de datos es el profesional que se dedica a recolectar, analizar y procesar enormes volúmenes de datos para extraer la información relevante que contienen. Aplican sus conocimientos en matemáticas, estadística y programación para interpretar los datos de que disponen las empresas y sacar información valiosa de ellos.

Como sabemos, hoy en día las empresas tienen a su disposición muchísima información con la que pueden sacar infinitos beneficios para la compañía. En esta nueva era digital, cada vez más competitiva, es necesario que las empresas aprovechen su información. Por ello, cada vez se necesitan más profesionales que sean capaces de dar sentido a los datos, para poder extraer su verdadero valor.

Un científico de datos puede predecir el comportamiento de los usuarios o encontrar nuevas oportunidades de negocio. Por ejemplo, puede predecir qué cliente es más probable que te abandone, cuál es el mejor momento para que adquiera un producto o cuál es la opción más acertada para él en función de sus preferencias.

En resumen, el papel de un Data Scientist es ofrecer a una organización información valiosa sobre cómo se comportan los consumidores y las acciones que la empresa lleva a cabo, para poder idear estrategias y modelos de negocio que le permitan cumplir sus objetivos.

Dashboard

Un dashboard o cuadro de mando es una herramienta de gestión de la información que refleja de manera visual las principales métricas, KPIs y datos fundamentales que intervienen en el alcance de los objetivos de una estrategia y permiten hacer un seguimiento.

Es una especie de resumen, que reúne datos de diferentes fuentes en un solo sitio y los presenta de manera fácil, digerible e interactiva para que lo más importante salte a la vista. El seguimiento en tiempo real reduce el esfuerzo manual y el largo tiempo de análisis que antes suponía un gran reto para las empresas.

DBA (Database administrator)

Un administrador de base de datos es el profesional encargado de dirigir y explotar los sistemas de gestión de bases de datos de una organización. Son técnicos de información que garantizan que la base de datos de una empresa y todas sus aplicaciones relacionadas operen de manera eficiente. Conocen cada detalle del servidor de estas bases de datos y se encargan de ayudar a los usuarios en las cuestiones técnicas acerca de su funcionamiento.

Data Mesh  

La tecnología avanza a la velocidad de la luz y nacen constantemente nuevas plataformas y servicios que quieren acabar con la centralización tradicional de la información y con los silos de datos. El Data Mesh surge justamente con este propósito: se trata de una técnica organizativa para descentralizar el dato y permitir un acceso de autoservicio a la información. Es una solución a las arquitecturas centralizadas en las que su crecimiento se ve condicionado por sus dependencias, calidad y complejidad, como ocurre con los Data Lakes debido a su gran variedad de formatos (tanto estructurados como no estructurados). Pero sin duda, el mayor problema que ocasionan es la falta de alineación entre los administradores del Data Lake y los equipos comerciales: esa falta de conexión y organización hace más difícil la generación de valor.   

Data Mining  

Es el conjunto de técnicas y procesos que se encargan de analizar grandes bases de datos de manera automática o semiautomática, para encontrar patrones o anomalías que permitan explicar y entender el comportamiento de esa información. Es decir, relaciona millones de datos aislados entre sí lo que permite encontrar patrones de conducta y así, se pueden predecir resultados con los que generar nuevas oportunidades de negocio. Para ello, utiliza métodos de estadística computacional, inteligencia artificial y aprendizaje automático. 

Data Modeling

La cantidad de información que producen constantemente las empresas necesita una serie de tratamientos específicos de almacenamiento, comprensión y comunicación. Dentro de todos estos procedimientos, se encuentra el Data Modeling o modelado de datos que es la representación visual de la información. Se podría definir como un esquema simplificado de un sistema de software y los datos que contiene, a través de textos y símbolos que representan la información de manera entendible y cómo esta fluye.

Lo más complicado de los datos es que el resto de los departamentos de la empresa, usuarios no tan técnicos, la comprendan. Por ello el Data Modeling es fundamental, ya que proporciona un lenguaje visual mucho más amigable, organizado y comprensible para todos.

Data Cleansing

Contactos duplicados, nombres mal escritos, correos electrónicos antiguos… Sin duda, la pesadilla de cualquier estrategia de marketing, ya que si los datos no son correctos vamos a orientar mal la campaña y probablemente, fracasar. Los datos de los clientes son uno de los elementos más valiosos para una empresa, por tanto, es fundamental asegurar que tienen la calidad más alta posible.

De eso se encarga precisamente el Data Cleansing o limpieza de datos, de depurar los conjuntos de datos para poder explotarlos después. Podríamos definirlo como el conjunto de procesos destinados a mejorar la calidad de los datos, identificando y eliminando aquellos que son incorrectos, inexactos o poco relevantes. Así, el Data Cleansing nos garantiza que la información es confiable, útil y de calidad.

Data Warehouse

Un Data Warehouse es un repositorio unificado en el que se almacenan los datos procedentes de las distintas fuentes que puedan existir en una organización, quedando estos integrados, depurados y ordenados en una única base de datos centralizada.

Tienen un enorme rendimiento, con una buena calidad, gobierno, integridad y seguridad de los datos. Con esta tecnología, la información es homogénea, fiable y accesible, lo que hace posible que los usuarios puedan consultar fácilmente lo que necesitan y se evitan muchas cargas operativas y costes por tener copias duplicadas, en mal estado o innecesarias.

En definitiva, es un almacén de datos ordenados que permite almacenar de forma estructurada y cuidada la información existente en la organización y el tratamiento jerarquizado de la misma. Esto facilita su consulta y análisis.

Data Lake

Es un depósito centralizado de datos que permite volcar los datos en bruto, en su formato original, sin tratar, sin organizar y sin ninguna finalidad definida con el objetivo de analizarlos a posteriori.

Es una plataforma muy escalable y almacena datos estructurados, semiestructurados y no estructurados, como textos, imágenes, videos y audios, de los que puede sacar poderosa información, ya no solo cuántas veces te ha llamado un cliente o cuánto tiempo está en espera, si no un análisis tan riguroso que puede identificar si el cliente está enfadado contigo o no por el tono de voz que utiliza.

Su arquitectura es plana, lo que facilita que el acceso a los datos se pueda realizar en conjunto y ofrecen una velocidad y un menor coste para la aplicación de Big Data, IA y Machine Learning.

Data Set  

Se tratade un conjunto de datos, por lo general, estructurados. Una tabla de una base de datos de SQL sería un Data Set, donde cada columna representa una variable y cada fila corresponde a cualquier otro dato del conjunto de datos que estemos tratando.   Por ejemplo, un Data Set podría ser una tabla de una base de datos de una empresa de camisetas, en la que cada columna tiene variables como la talla, marca o precio y cada fila recoge los valores que corresponden a cada camiseta.  

Dato  

Los datos son representaciones simbólicas (ya sean numéricas, alfabéticas, algorítmicas, etc.) de un atributo o variable cualitativa o cuantitativa. Es decir, son una descripción codificada de hechos empíricosy sucesos. Esos valores son procesados por un ordenador y después, se muestran a los usuarios como información.   Todo esto suena muy técnico, pero trasladándolo ala realidad, pongamos un ejemplo: los datos son las veces que has visitado la web de una aerolínea y has mirado el precio de una misma ruta. Esa información es muy relevante para la empresa, ya que es consciente de que muestras cierto interés en ese viaje y puede efectuar distintas acciones con las que impactarte más y mejor y que acabes comprando el vuelo.   Hasta hace no mucho, los datos eran un ente complejo y desconocido para las empresas.⁣ Sin embargo, cuando se vio todo el potencial que estos encerraban, las reglas del juego cambiaron por completo. ⁣Cada vez son más los que los utilizan como activo estratégico para sus negocios de cara a entender mejor su mercado y a sus clientes. 

Datos estructurados

Es la información que encontramos en la mayor parte de las bases de datos y con los que la mayoría de nosotros estamos acostumbrados a trabajar. Son archivos de tipo texto, que encajan perfectamente en filas y columnas con títulos. La información está organizada y y se puede procesar fácilmente. Quien trabaja con ella, puede utilizarla y manipularla con relativa rapidez. Para que lo entendamos mejor, imaginemos un archivador perfectamente organizado donde todo lo que hay dentro está etiquetado, ordenado y tiene fácil acceso.

  • Algunos ejemplos de datos estructurados:

  • Hojas de Excel

  • Bases de datos relacionales

  • Formularios web

  • Fichas de clientes estandarizadas

Datos externos  

Se refieren a cualquier tipo de datos que hayan sido generados y proporcionados desde fuera de la empresa. Los datos de terceros ayudan a disponer de una mejor comprensión más allá de los datos que las empresas generan por sí mismas, de hecho, enriquecen y complementan toda esa información ya que ayudan a contextualizar y dar una mejor explicación del comportamiento de esos datos internos que ya existen.   Por ejemplo, los retailers usan datos externos que combinan con sus propios datos para definir el sitio ideal donde establecer sus próximas tiendas y qué formato de tienda: flagship, tienda normal osi por el contrario, se tratará depequeños puntos de venta ubicados en barrios. 

Datos no estructurados

Aunque cueste creerlo, las bases de datos con archivos estructurados ni siquiera representan la mitad de la información que hay disponible en el negocio lista para ser utilizada. La mayor parte de la información relevante para las empresas se conforma de datos no estructurados. Estos son datos binarios sin una estructura interna identificable. Es decir, sí que tienen una estructura interna pero sin un esquema predefinido, por lo que se trata de un conglomerado masivo y desorganizado de archivos sin valor hasta que son identificados y organizados.

Este tipo de datos pueden ser texto o no, y pueden estar generados tanto por humanos como por máquinas. Algunos ejemplos serían:

  • Imágenes

  • Audios

  • Videos

  • PDF

  • Información de redes sociales

  • Mensajería instantánea

Los datos no estructurados no se pueden registrar en bases de datos tradicionales, si no que se almacenan en bases de datos no relacionales. Después, una vez que han sido organizados, ya se pueden utilizar para encontrar información relevante de ellos. Sin embargo, extraer insights valiosos dentro de este tipo de datos no es una tarea sencilla. Requiere de un análisis avanzado y un alto nivel de experiencia técnica. Pero este esfuerzo merece la pena ya que presenta una gran ventaja competitiva para las empresas.

Mientras los datos estructurados nos muestran una visión general de los clientes, los no estructurados proporcionan una comprensión más profunda del comportamiento e intención del consumidor. Pueden ayudarnos a entender hábitos de compra, patrones o sentimientos hacia los productos.

Data Journey

Se refiere a las diversas etapas por las que los datos pasan desde su captación hasta su uso, es decir, su ciclo de vida.

Las empresas y los usuarios generan diariamente cantidades masivas de datos de todo tipo. Recopilar, almacenar, analizar y finalmente, transformar esa información en insights de valor estratégicos y útiles para las decisiones de las empresas es un gran reto para ellas. Requiere análisis complejos, nuevas tecnologías, nuevas técnicas de trabajo y sobre todo, una nueva forma de pensar por parte de los usuarios que estén inmersos en la transformación Data Driven. Todo este proceso por el que pasan los datos, es el Data Journey.

Data maturity

Es una medida que muestra en qué punto se encuentra el uso de los datos dentro de una organización. Hay empresas que se encuentran en fases iniciales donde sus necesidades se limitan a la preparación y visualización de datos para crear reportes o de manera self-service.

Otros se encuentran en fases más avanzadas, llevando a cabo análisis predictivos e incluso prescriptivos destacando como casos de uso más demandados la optimización de procesos, previsión de la demanda, forecast de ventas (estimación de ventas), optimización de campañas de marketing, predicción del abandono (churn), mantenimiento predictivo de maquinaria, recomendación de productos (cross y up selling), risk scoring (nivel de riesgo en presencia de algunos factores de riesgo), dynamic pricing (estrategia de fijación de precios en la que las empresas establecen precios flexibles para productos o servicios en función de las demandas actuales del mercado) u optimización de la cadena de suministro.

Data Fabric

Un Data Fabric se trata de una plataforma en la nube que ayuda a mantener los datos completos, limpios y sin riesgos al tiempo que garantiza su integración, integridad y gobernanza. El objetivo final es sacarles el máximo partido a los datos y acelerar la transformación digital, y el Data Fabric simplifica e integra la gestión de datos en el cloud.

Fabric se refiere a estructura o tejido, y aquí lo podemos interpretar como un tejido que se extiende en el espacio en el que se entretejen y se conectan diversos tipos y fuentes de datos. La información puede ser procesada, almacenada y administrada dentro de dicho entramado y al mismo tiempo es accesible y puede ser compartida por aplicaciones internas y externas.

En definitiva, un Data Fabric mejora la eficiencia operativa, ahorra costes, reduce riesgos, permite la innovación y una mejor gestión de los negocios.

Deep Learning

El Deep Learning es un tipo de aprendizaje más avanzado que el Machine Learning y es capaz de encontrar patrones ocultos de los datos por sí mismo, de forma automática, combinarlos y construir reglas de decisión mucho más eficientes. Para ello, cuenta con capas de estructuras de algoritmos llamadas redes neuronales artificiales que intentan imitar la función de las neuronas de los seres humanos. Esto significa tratar problemas más complejos, como la comprensión de conceptos en imágenes, vídeos, textos, sonidos, series temporales y todos los datos no estructurados que podamos imaginar.

Al igual que todos los modelos, necesita una supervisión, unos datos debidamente etiquetados, una evaluación de los resultados del modelo y, por supuesto, una evaluación del valor de negocio que aportará. La falta de datos etiquetados con precisión es una de las principales razones por las que el DL puede fallar, por muy avanzado e innovador que resulte.

Decision Intelligence

Todos los días las empresas están tomando decisiones que impactan en los resultados de sus negocios. Sin embargo, actualmente nos encontramos con grandes ventajas, y es que contamos con una gran cantidad de datos y con tecnologías muy potentes que nos permiten analizarlos.

Imagínate que esas decisiones se tomaran sabiendo lo que va a suceder en el futuro si elegimos una opción u otra. Sabríamos qué decisiones darían mejores resultados que el resto. El Decision Intelligence se acerca cada vez más a esto. Lo podríamos definir como la disciplina que analiza enormes cantidades de datos para que una organización tome sus decisiones con las mínimas probabilidades de error. Esto lo realiza a través de algoritmos de Inteligencia Artificial que procesan grandes conjuntos de datos en tiempo real. Además, es capaz de hacer predicciones basándose en datos históricos y sugerir qué es lo mejor para el negocio.

La gran diferencia que tiene con las decisiones que somos capaces de tomar los seres humanos es que nosotros no podemos analizar la inmensa cantidad de información que se produce, solo consideramos datos limitados. Sin embargo, la IA tiene en cuenta toda la información disponible, lo que minimiza enormemente la posibilidad de error lo que se traduce en mejores decisiones y más inteligentes.

Demand forecast

El demand forecast es la técnica utilizada para calcular con la mayor exactitud posible la cantidad de bienes o servicios que los clientes comprarán durante un determinado periodo de tiempo, es decir, se encarga de estimar la demanda que habrá en el futuro.

Se combinan algoritmos basados en minería de datos e inteligencia artificial para analizar muchas variables que influyen en la demanda como el volumen total de ventas de un producto o servicio, el gasto medio por cliente para conocer el poder adquisitivo del target, la cuota de mercado y apreciaciones del equipo de marketing y los comerciales, promociones, campañas, estudios de mercado, calendarios, meteorología...

Dynamic pricing

En un mercado tan rápido y cambiante, las empresas tienen que ser capaces de seguirle el ritmo y poder ajustar sus precios de manera constante para seguir siendo competentes. El Dynamic Pricing es un mecanismo que permite adaptar los precios en función de la oferta y la demanda a través de sistemas automatizados y personalizados. El objetivo es maximizar los beneficios de la empresa, adaptando el precio a los requisitos del mercado en ese determinado momento.

Por ejemplo, ¿nunca has visto un vuelo pero no lo has comprado y al rato, lo has vuelto a mirar y estaba más caro? El Dynamic Pricing analiza las ofertas que hemos visto anteriormente y como sabe que estamos interesados, aumenta ese precio.

E

Estadística | Estandarización | ETL

Estadística  

Se trata de una rama de las matemáticas que permite recopilar, organizar, analizar y estudiar un conjunto de datos que permiten obtener explicaciones y predicciones sobre los fenómenos que se han observado. Se le llama la ciencia de los datos y su principal objetivo esayudar a comprender los hechos que suceden en el entorno a partir de la información disponible. Esta disciplina se utiliza para conocer comportamientos, aspectos del mercado y descubrir nuevas tendencias en los consumidores. Entre sus métodos más habituales se encuentran la estimación de estadísticas poblacionales a partir de muestras (media, moda, varianza, etc.), modelos de regresión, técnicas para determinar tamaños muestrales o test de hipótesis.  

Estandarización  

Es la adaptación de las características de un producto, servicio o procedimiento a una serie de modelos o reglas de referencia, consideradas como estándar. Estas normas o estándares establecen las características comunes que deben se deben cumplir y respetar.  

ETL

Uno de los problemas que tienen las empresas es el recopilar datos de distintos orígenes y formatos ya que después será necesario moverlos a uno o varios almacenes de datos. Y es muy probable que el destino no sea el mismo tipo de almacén de datos que el origen, ya que a menudo el formato es distinto o hay que dar forma a los datos y limpiarlos antes de cargarlos en el destino final.

Una ETL se encarga justamente de eso. Sus siglas provienen del inglés:

  • Extract: extraer

  • Transform: transformar

  • Load: cargar

Así, un proceso ETL es una canalización e integración de datos que se usa para recopilar datos de distintos orígenes y formatos. Entonces, primero los extrae, luego los transforma según las reglas del negocio y, por último, los carga en un almacén de datos de destino.

F

Fast Data | Federated Learning | Fichero de log (Log File) | Forecast de ventas

Fast Data  

“Velocidad” es una de las 4 vs del Big Data, junto con la variedad, el volumen y la veracidad. De eso trata este concepto:FastData son los datos de alta velocidad, aquellos con un flujo muy rápido de generación y consumo. También se denomina Fast Data al proceso de análisis de datos en tiempo real para obtener conocimiento instantáneo, conocer mejor a los clientes y una mayor capacidad de actuar sobre las tendencias.   

Federated Learning  

Se trata de una técnica de aprendizaje automático que entrena un algoritmo de forma colaborativa, empleando un conjunto de datos seguros en una plataforma descentralizada. Para que lo entiendas mejor: hasta ahora, para que toda la organización pudiera explotar los datos era necesario que todas las áreas tuvieran acceso a la información, es decir, el acceso y la explotación iban de la mano. Sin embargo, esto implicaba que se formaran silos.

Para evitar esto, no es necesario que toda la empresa pueda acceder a los datos en sí, sino que simplemente todos puedan explotarlos allí donde residan.

Fichero de log (Log File) 

Se entiende por log file o archivo de registro a un fichero o base de datos donde se almacenan una gran variedad de eventos desde visitas a una web, llamadas, historial de cambios de un documento, fechas, etc. es decir, cualquier información de carácter transaccional en las que alguien (a menudo un usuario) deja su huella acerca de sus interacciones.

Forecast de ventas  

Lo que una empresa va a vender en un futuro está condicionado por múltiples factores, a veces, difíciles de determinar con precisión. El forecasting se encarga justamente de ello; se trata de la estimación o la predicción de las ventas de un producto/servicio en un futuro. Para ello, emplea modelos predictivos de regresión.

G

Gobierno del dato | Gobernanza de la IA

Gobierno del dato

Los datos son el activo más valioso para las empresas, por lo que necesitan un modelo organizativo, unas directrices comunes y unas herramientas necesarias para que estos datos se conviertan en un activo estratégico que garanticen su disponibilidad, integridad, usabilidad, seguridad y calidad. De eso mismo se encarga el Gobierno del Dato.

Entonces, podríamos definirlo como la estructura organizativa que respalda la gestión de los datos a través de normas, políticas y procesos para regular cómo se recopilan, almacenan, procesan y eliminan los datos. Aseguran que los datos sean correctos, fiables y seguros. Rige quiénes pueden acceder a qué tipos de datos y cuáles están sometidos a ese gobierno. En definitiva, es la parte más estratégica y de planificación y control para extraer el máximo valor de la información.

Gobernanza de la IA

Los riesgos y prejuicios en torno a la utilización de los algoritmos de Inteligencia Artificial han dado lugar a que se cree una gobernanza en torno a ella. El gobierno, las empresas y la comunidad de investigación están desarrollando marcos de referencia que definan y gestionen su uso en las organizaciones. Estos marcos están formados por principios que garantizan buenas prácticas y un eterno jurídico regulatorio que permita a las empresas utilizar la IA de manera segura, justa y responsable.

L

H

Hadoop | Humanizar los datos

Hadoop  

Se trata de una estructura de software de licencia libre para almacenar y procesar cualquier tipo de datos masivos (tanto estructurados como no estructurados). Tiene la capacidad de efectuar operaciones virtualmente ilimitadas con un enorme poder de procesamiento y de generar respuestas rápidas a cualquier tipo de consulta sobre la información almacenada. Esto es posible gracias a que la estructura se organiza en nodos y clústeres. El sistema divide los datos y estos se encuentran repartidos entre los diferentes nodos del clúster, donde cada nodo se encarga de realizar una parte del trabajo. Esto a su vez proporciona una gran escalabilidad, ya que se puede hacer crecer el sistema fácilmente para manejar más datos simplemente añadiendo nodos.

Humanizar los datos

Convertirlos en activos útiles de cara a mejorar las organizaciones y con ello la sociedad y la vida de las personas. Hasta hace no mucho tiempo, los datos eran un ente complejo y desconocido para todos los usuarios de negocio y al humanizarlos, se convierten en activos importantesde cara a la toma de decisiones, hablando su mismo idioma.

I

Inteligencia Artificial | Internet of things (IoT)

Inteligencia Artificial

La inteligencia artificial se refiere a la combinación de algoritmos con el propósito de crear programas y mecanismos que se comporten de manera inteligente. Dicho de otra manera, la IA es el concepto por el cual una máquina actúa como un ser humano. Para adoptar este comportamiento similar, analizan grandes cantidades de datos (Big Data) en los que identifican patrones y tendencias y hacen predicciones de forma automática y precisa. La IA es muy importante para las empresas ya que hace que sus decisiones cotidianas sean más inteligentes a través sus análisis predictivos y múltiples aplicaciones.

IoT  

El Internet de las cosas (IoT, por sus siglas en inglés) se refiere a la interconexión de dispositivos cotidianos y objetos físicos a través de Internet. Describe la red de objetos físicos ("cosas") que llevan incorporados sensores, software y otras tecnologías con el fin de conectarse e intercambiar datos con otros dispositivos y sistemas a través de Internet.

La idea detrás del IoT es permitir la comunicación entre los dispositivos, recopilar datos y utilizarlos para tomar decisiones informadas. Por ejemplo, un termómetro inteligente puede ajustar automáticamente la temperatura en función de los patrones de uso y la información del clima, mientras que un sensor de presión en una fábrica puede alertar a los trabajadores de un posible problema en la maquinaria.

J

JSON

JSON

Las siglas de JSON significan JavaScript Object Notation y se trata de un formato de texto sencillo para estructurar datos y guardar e intercambiar información de un sistema a otro como aplicaciones cliente-servidor o apps móviles, de forma que cualquier persona lo pueda leer.

K

L

Logical DataWarehouse

Logical DataWarehouse

Es una arquitectura de gestión de datos virtual que reposa sobre los Datawarehouses tradicionales y accede a múltiples y diversas fuentes de datos.

En esta plataforma, se accede a una única capa lógica de acceso a toda esa información por lo que facilita su comprensión y la obtención de insights de valor.

M

Mantenimiento predictivo | Map Reduce | Metadatos | Machine Learning | Modelo de recomendación | Modelo predictivo | Make Data Matter | MDM (Master Data Management) | Metaverso

Mantenimiento predictivo

Se trata de una técnica que utiliza el aprendizaje automático y la inteligencia artificial para obtener información valiosa sobre el ciclo de vida de los equipos y la maquinaria y permite detectar anomalías, defectos y problemas potenciales en los equipos con el objetivo de prevenir fallos antes de que ocurran.

Si una máquina falla, las repercusiones negativas tanto a nivel de servicio como financiero para una empresa pueden ser enormes, por ello el mantenimiento predictivo se está convirtiendo en una tendencia cada vez más popular. Por ejemplo, un sistema de mantenimiento predictivo es capaz de identificar los días que faltan para que falle una pieza de una máquina en una fábrica. Sabiendo esto, el equipo de datos debe enviar un informe de seguimiento al equipo de mantenimiento, detallando las mejores opciones posibles de tiempo y lugar de una posible reparación.

Map reduce

Es un modelo de programación utilizado por los programas Hadoop, un sistema de análisis de datos ampliamente utilizado para Big Data que tiene la capacidad de tratar, dividir y procesar en paralelo grandes volúmenes de datos almacenados en clústeres.

Se compone de dos partes: la primera es el trabajo de mapa, que toma un conjunto de datos y los procesa para obtener el nivel más desagregado posible de esa información y la segunda, una función que se encarga de agregar los resultados.

Metadatos

La definición de metadatos sería “datos acerca de los datos”, es decir, son datos que nos dan información sobre datos que ya hemos producido.

Para que lo entiendas mejor, tu empresa produce mucha información en su actividad cotidiana: informes, facturas, contratos, gráficos, fotografías, vídeos y un larguísimo etcétera con el que no acabaríamos nunca. Todos ellos, son formatos de uso cotidiano, con los que estás familiarizado.

Sin embargo, de esos datos se derivan otros datos: los metadatos de los que hablábamos antes. Estos, describen el contenido, la calidad, las condiciones, la historia, la disponibilidad, la fecha, la ubicación y otras características fundamentales de esos datos que estás acostumbrado a utilizar. Se encuentran ahí, a menudo generados automáticamente, aunque ni siquiera sepas que existen y son muy valiosos y útiles.

Nos permiten ubicar y entender los datos, encierran información importante para determinar qué conjuntos de datos existen para una localización geográfica concreta, qué fines específicos tienen, cómo recuperarlos y la información necesaria para procesarlos y utilizarlos correctamente.

Machine Learning

El Machine Learning o aprendizaje automático, es una rama de la Inteligencia Artificial que cuenta con algoritmos capaces de aprender de forma automatizada. Los humanos entrenan a sus algoritmos para que aprendan a través de los datos, identifiquen patrones y hagan predicciones.

Así, esta tecnología permite reducir la actividad de los seres humanos en las operaciones, ya que se estas realizan de manera automática gracias a sus algoritmos. Esto supone una gran ventaja, ya que se libera mucha carga operativa y se pueden controlar enormes cantidades de información de una manera mucho más efectiva.

Modelo de recomendación

Una de las tecnologías más revolucionarias del Machine Learning son sin duda los sistemas de recomendación. Son tan efectivos que estamos cada día invadidos por miles de recomendaciones, sugerencias y “productos relacionados” por todas partes. Y si no, párate a pensar en los casos más conocidos como podrían las plataformas como Netflix recomendándote películas o series, Amazon con sus productos de venta cruzada o Spotify presentándote nuevos artistas y canciones.

¿Cómo hacen esto? Para hacer estas recomendaciones, los algoritmos de estos modelos analizan y procesan los datos históricos de los usuarios (desde la edad, sus compras, qué buscan, calificaciones, datos de redes sociales, opiniones, etc.), de los productos, servicios o contenidos, y los transforma en conocimiento útil. Se lleva a cabo una predicción, teniendo en cuenta los gustos previos, de los productos o servicios que pueden ser interesantes para el usuario y se los recomienda.

Modelo predictivo

Se trata de un sistema algorítmico que utiliza técnicas estadísticas y herramientas avanzadas de análisis de datos, para realizar predicciones sobre eventos futuros utilizando los datos históricos existentes e introduciendo múltiples parámetros.

Hay múltiples tipos de modelos predictivos y múltiples técnicas de análisis y modelado de datos. Entre ellos se encuentran los modelos predictivos tipo churn, risk scoring, forecast de ventas, clustering, etc.

Make Data Matter

El tagline y la razón de ser de Keyrus. Hacer que los datos importen y que sean el principal activo de rendimiento empresarial. Las organizaciones deben llevar a cabo una transformación digital, integrando la perspectiva de los datos, para asumir con éxito un mundo transformado y garantizar que pueda crecer, ser competitivo y durar a largo plazo. Los datos son, sin duda, una de las claves del éxito para las empresas y necesitan utilizarlos: al humanizarlos, descifrarlos, interpretarlos y comprenderlos. Esa información compleja y confusa se transforma en sencilla y clara proporcionando insights de valor de cara a tomar mejores decisiones, desarrollar soluciones que generen impacto y poder conocer mejor, potenciar y transformar el negocio.

MDM (Master Data Management)

La gestión de datos maestros es la práctica que permite a una empresa relacionar todos sus datos críticos con un solo archivo llamado archivo maestro, de forma que se obtiene un punto de referencia común para los datos más importantes, simplificando además el intercambio de datos entre los empleados y departamentos.

Metaverso

A día de hoy, esto podría resumir lo que es el metaverso, sin embargo, es un término en construcción por su reciente aparición en nuestras vidas. Se trata de un universo virtual tridimensional que permite a los usuarios interactuar con un mundo virtual en tiempo real. En el metaverso, los usuarios pueden interactuar tanto social como económicamente a través de avatares en el ciberespacio, el cual funciona como un reflejo del mundo real, pero sin las limitaciones físicas de este.

N

NoSQL

NoSQL

NoSQL se refiere a bases de datos no relacionales que almacenan datos en un formato distinto a las tablas relacionales. Las bases de datos relacionales tienen formatos muy estructurados basados en tablas con filas y columnas. Sin embargo, las bases de datos NoSQL están orientadas a documentos y datos complejos que cambian constantemente generados por aplicaciones modernas y son capaces de acumular y recuperar esta información en formatos que no son tablas. Este tipo de bases de datos, son más flexibles y escalables y son muy útiles porque son fáciles de desarrollar, por su funcionalidad y su gran rendimiento.

Ñ

O

P

Q

Query

Query

Se trata de una consulta a una base de datos con la que podemos extraer información de la misma, y nos permite manipular, agregar, eliminar o cambiar esos datos. Sin embargo, necesitamos un lenguaje estándar con un conjunto de códigos predefinidos que nos permita hacer nuestra solicitud para que la base de datos pueda entender lo que estamos pidiendo. Este lenguaje es conocido generalmente como SQL (lenguaje de consulta estructurado).

R

Real Time Analytics

Real Time Analytics

El análisis de datos en tiempo real es una disciplina que, utilizando la lógica y las matemáticas, extrae insights valiosos de esos datos en tiempo real para poder tomar mejores decisiones rápidamente y sin perder ni un solo detalle. Este tipo de análisis utiliza cuadros de mando inteligentes, interactivos y atractivos que muestran lo que está ocurriendo en tu empresa en tiempo real de forma intuitiva y analizan el histórico para poder detectar tendencias e información de valor para las empresas.

S

Self Service Analytics | SaaS (Software As A Service) | Social Analytics

Self Service Analytics

Es una forma de Business Intelligence en la que los usuarios de negocio pueden generar sus propios informes, realizar consultas y hacer análisis sin depender siempre del personal de IT. Estas plataformas permiten que cualquier persona de una empresa (que tenga los permisos pertintentes) pueda utilizar los datos y entender su lenguaje sin necesidad de tener conocimientos técnicos y sin depender de terceros. Ofrecen, de manera intuitiva, fácil y rápida, obtener visualizaciones de los datos con las que tomar mejores decisiones y extraer información de valor de los mismos.

SaaS (Software As A Service)

El Software como Servicio permite que los usuarios puedan utilizar aplicaciones basadas en la nube a través de Internet. Por ejemplo, el correo electrónico. Se trata de un modelo de distribución de software integral donde el soporte lógico y los datos que se emplean se alojan en los servidores de un proveedor de servicios en la nube (en Internet) pagando por su uso.

Social Analytics

También se conoce como análisis de redes sociales. Se trata de una herramienta que recopila y analiza los datos sobre cómo interactuan los usuarios con las redes sociales de una empresa. Esta información nos ayuda a simplificar los datos de decenas de redes sociales, millones de personas y una gran variedad de acciones. Gracias a esta simplificación, logramos obtener un conocimiento más profundo del comportamiento de los usuarios, poder identificar, predecir y responder mejor a sus conductas, entender mejor el mercado online y mejorar nuestra visibilidad en redes sociales.

T

U

V

Visualización de datos

Visualización de datos

Es una representación de los datos de manera gráfica o ilustrada. A través de elementos visuales, como gráficos, diagramas o mapas, la visualización de datos permite ver y entender mejor el análisis que se hace sobre los datos y así poder detectar y comprender tendencias y patrones con los que tomar mejores decisiones.

W

X

Y

Z

Logo - Keyrus
Madrid

Avenida de Europa, 16 28108, Alcobendas, Madrid

Teléfono:+34 91 636 98 54

Fax:+34 91 630 36 54