Accueil > Articulos en castellano > En el BIG DATA hay BIG

En el BIG DATA hay BIG

écrit par René Lefebure

11 mar

Traducion de Yolanda Albendea Lopez

Una definición de Big Data resulta una tarea más compleja de lo que parece. Aplicando una traducción tan literaria como ‘Grandes Datos’, estamos más bien posicionando el Big Data como:

 

– la capacidad de administrar y analizar cantidades muy grandes de datos (yo he elegido voluntariamente no emplear la palabra ‘Grandes Datos’) por medio de nuevas técnicas (ya que las técnicas tradicionales como el SQL se han vuelto incapaces… o lo serán frente a perspectivas de recolección programadas).

 

Este enfoque de Big Data como extensión tecnológica, como medio de superar el <muro de la información> (tener una velocidad de proceso de datos más rápida que la velocidad de carga…) es especialmente verdadera en el dominio de Internet donde la voluntad de almacenar y analizar el conjunto de interacciones de los visitantes se traduce en volúmenes considerables de datos a interpretar.

 

En este sentido, no es casualidad que los <padres> del Big Data sean Google, Yahoo, Facebook o Amazon (solo Apple que completa el club de los 5 tiene un origen algo diferente). Estas empresas han debido hacer frente a un almacenaje voluminoso de informaciones (como la Biblioteca Nacional de Francia). Pero han debido aprender a interpretarlas para optimizar las búsquedas de los internautas, anunciar buenas publicidades o hacer recomendaciones de los productos más adecuados (en resumen responder a otras limitaciones de la BNF).

 

En el BIG DATA… hay valor

 

 

Evidentemente los estadísticos y mineros de data podrían concluir, idénticamente como Mr. Jourdain que ellos hacían ya Big Data.

 

 

Que el Buzzword actual es un golpe del marketing para re-etiquetar un universo de decisión en la búsqueda de un segundo soplo de crecimiento.

 

En resumen, un golpe de publicidad bien orquestado por algunos editores astutos.

 

Tienen razón, ya que el análisis de datos es tan antiguo como su almacén, pero a la vez se equivocan minimizando la ruptura del paradigma de decisión entre el antes y el después BIG DATA.

 

No podemos considerar el Big Data como una evolución; hay una verdadera ruptura (no totalmente apreciada en los medios de comunicación actuales). El Big Data es una extraordinaria palanca de creación de Valor.

 

 

Para convencerse basta con mirar la capitalización bursátil de estas 5 empresas (Google, Apple, Amazon, Facebook, Yahoo) en los tres últimos años, para comprender que el Big Data no es solamente la gestión de grandes volumetrías de datos, sino una capacidad de <<controlar>> la cadena de transformación de datos en información.

 

Este potencial de valorización parece haber sido bien comprendido por los inversores anglo-sajones, y subestimado en Europa Continental (las acciones recientes de Me Lauvergeon comienzan a corregir este retraso con la ambición número 7 sobre la valorización de datos masivos).

 

 

La fuerza del fenómeno Big Data es haber sabido poner en evidencia en los ojos de financieros (y de algunos responsables políticos como Obama o Cameron), la capacidad de transformación  en ventaja competitiva unida al tratamiento del dato (eso que el Data Mining no ha sabido mostrar con tanto éxito).

 

En « Big Data » hay Schumpeter

 

El Big Data hace entrar en una nueva era de tratamiento de datos. Permite la puesta en marcha de un proceso que permite transformar volúmenes de datos heterogéneos en aplicaciones <business > innovadoras.

 

 

Los factores de diferenciación del Big Dara superan el simple muro de la volumetría para integrar una fuerza lógica aplicativa de creación de valor a partir de datos. El Big Data representa por tanto una ruptura tecnológica (en el sentido en el que autoriza a administrar volúmenes inaccesibles precedentemente), y un soplo de innovación en las técnicas de modelización (encontramos orígenes múltiples en las técnicas de modelización con las estadísticas, la bio-estadística (meteorología o difusión de epidemias), el análisis textual, las matemáticas, etc.

 

Un segundo elemento  « schumpeterien » en el Big Data es relativo a su accesibilidad para los nuevos actores  (des « start up »). De hecho, una parte no despreciable de programas resulta del modo Open Source, la puesta en disposición de espacio de proceso de datos sobre arquitecturas (como Amazon) permiten tratar grandes volumetrías a costes muy bajos.

 

 

Esta bajada de costes de entrada en el proceso de datos permite la emergencia de nuevos actores. Los inversores importantes tanto en arquitectura como en software, antiguamente necesarios para tratar volumetrías importantes de datos, desaparecen.

 

Las iniciativas de apertura de datos en los modos d’Open Data (ciudades de Londres y San Francisco http://spotcrime.com/ca/san+francisco son modelos del género) que ofrecen juegos de experimentación para nuevos actores que aportan nuevas aplicaciones a las empresas o a particulares (los criterios de elección de una vivienda incluirán próximamente la criminalidad, el tiempo del trayecto, la calidad de gestión de basura doméstica, la actuación de los establecimientos escolares.. o hospitalarios).

 

Para aquellos que tienen algunas dudas sobre la novedad del enfoque, la utilización del programa Ngram de Google (https://books.google.com/ngrams) muestra que el enfoque histórico de la utilización de palabras en dos siglos, es diferente a la búsqueda de un documento. Seguir la difusión de una expresión en el curso del tiempo es un enfoque diferente a la utilización de datos textuales.

 

Les 5 V del Big Data

 

 

 

Para apreciar la diferenciación del Big Data, es muy común citar las 5 V siguientes:

 

Valor: capacidad de poner en marcha nuevos modelos económicos basados en la interpretación de datos (Critéo es un ejemplo francés http://www.criteo.com/fr/forrester)

 

–  Volumen: para superar los Tera Octets de datos y atravesar los límites de los Peta, Exa y Zetta que llegan a gran velocidad.

 

– Variedad: para superar los datos estructurados (aquellos que <entran> en las columnas)  e integrar los datos <no estructurados> como los datos textuales, los datos audio, video, las imágenes, los datos de navegación web, los datos de desplazamiento GPS, etc…http://123opendata.com/blog/selectionobjets-communicants/

 

 

Velocidad: para hacer <pegar> el factor <tiempo>, elemento cada vez más importante para crear valor, los datos del Big Data se acercan a un proceso de datos en tiempo real (para la visualización de  bannières por ejemplo). Los modelos se han vuelto <mortales> y son nulos si no son utilizados en el <momento correcto>.

 

Veracidad: por su capacidad de administrar las <grandes volumetrías>, las problemáticas de creación de muestra no son ya necesarias. Se vuelve posible tratar la integralidad de datos suprimiendo los riesgos de error ligados a las elecciones de muestras, las copias entre las bases, el ajuste de los modelos de re-aplicación, y la identificación de señales débiles.

 

 

Una definición del « Big Data »

 

Como es, cuanto menos necesario, aportar una definición al « Big Data » propongo la del investigador Subu Raj

 

 

« El BIG DATA no hace solo referencia a datos, sino que describe también las herramientas, los procesos y las reglas que le permiten a una empresa crear, manipular, administrar volúmenes de datos muy importantes (> 10 Tera) y extraer informaciones pertinentes»

 

Tiene el mérito de pasar la frontera de los 10 Téra y de integrar las nociones de datos e informaciones.

 

… si debiera enmendar esta excelente definición, añadiría <en una perspectiva de gestión en tiempo real>.

 

Pas encore de commentaire

Faire un commentaire