Digital

De nada sirve el Big Data si no sabe interpretar los datos #CE15

big data datos

El recinto ferial Ifema ha acogido un año más la Conferencia ESRI 2015, y desde MarketingDirecto.com no hemos querido perdernos el encuentro dedicado al último grito en el mundo de los negocios: el Big Data.

Antonio Romero de la Llana, chief data officer de DataCentric; José Manuel de la Chica, product manager, platform & tech evangelist en BBVA; César Aguado, account executive strategic accounts en Microstrategy; Carmen Pellicer, geographic information systems, market analysis & models en Telefónica; Javier Gutiérrez Puebla, catedrático de la Universidad Complutense de Madrid y Francisco Parrón Tur, industry manager executive business de Esri España han sido los participantes de la mesa redonda que ha moderado Isabel Bajo Albarracín, directora general de publicaciones en Alimarket.

Para Javier Gutiérrez Puebla, el Big Data es todo un filón para aquellos que quieran "sacar partido de los datos", aunque no se puede olvidar que siempre existe sesgo en la información. Un ejemplo de ello es Twitter, una herramienta que permite acceder a una cantidad ingente de información en tiempo real, aunque sesgada, porque mientras que en España hay un 30% de personas en la red social de microblogging, el número de usuarios que lo utilizan con frecuencia es bastante inferior. Por ello, el catedrático apuesta por “trabajar para compensar ese sesgo”.

Carmen Pellicer destacó el impacto que ha tenido el Big Data en las empresas: “Ha supuesto toda una revolución, una nueva manera de ver el negocio basado en los datos y en el Business Intelligence”. Añadió el gran valor que tiene tener muchos datos de fuentes independientes, ya que se pueden cruzar para obtener datos de calidad. Otro aspecto que se ha transformado, según Pellicer, es el método científico en la forma de obtener los datos. “Lo que se evidencia es que el tratamiento masivo de los datos funciona. Aunque los algoritmos no sean buenos, los resultados sí lo son. Lo importante no son los programas, sino los datos”.

Sin embargo, Parrón Tur advirtió que “lo importante no es solo tener grandes volúmenes de datos, sino saber interpretarlos y saber tomar decisiones en base a ellos”. César Agudo agregó que precisamente eso es lo que hacen desde Microstrategy, “ofrecer herramientas analíticas para que los usuarios de negocios sean capaces de interpretar esa información”.

Antonio Romero de la Llana se expresó en la misma línea, pero recalcó otro de los problemas de la industria y que había afectado a su empresa: la rapidez con la que cambia todo y el impacto que tiene en la gestión de los datos. “Llevábamos 10 años haciendo una migración y en los últimos dos o tres años nos vimos obligados a adoptar otro tipo de tecnología [de Big Data], algo necesario porque cada vez se producen más datos y no hay tiempo de procesarlos. Cada año podemos procesar el doble o el triple de información con la mitad de inversión”. Romero también diferenció entre tres tipos de datos: los geográficos, los de empresas y los de consumidores.

A la hora de hablar de las principales tendencias del Big Data, Romero señaló como algo positivo que el usuario medio cada vez tenía más conocimiento sobre lo que son los datos y cómo funcionan. Sin embargo la cara opuesta de esto es la reacción general que existe en el público: “La sociedad está paranoica porque no sabemos qué hacemos con los datos”.

Aunque quizá el target más joven es el que sale de esta norma, como indicó Romero de la Llana, ya que renuncian a su privacidad y ofrecen sus datos a las empresas a cambio de poder disfrutar de servicios freemium. José Manuel de la Chica coincidió con él en que, aunque no todos los grupos demográficos están de acuerdo en compartir su información personal con las empresas, muchos lo hacen encantados si obtienen algo a cambio, y cuestionó si ocurriría lo mismo con las administraciones públicas.

De acuerdo a Romero, el marco legal es otro de los problemas que afectan a esta industria, ya que “existe una incertidumbre absoluta en la legalidad”, así como la gran inversión que realizan algunas compañías a menudo y que acaba siendo inútil.

Para Parrón Tur, la tendencia principal es la digitalización de todo y el internet de las cosas, mientras que “la gran barrera de las empresas es no saber cuántos datos utilizar ni qué hacer con ellos, o qué tecnología emplear”.

Pellicer añadió que el gran reto es “anticiparse a lo que viene”, pero que los grandes problemas son el marco legislativo y la educación y preparación de profesionales. “Ahora se puede tener información en cualquier sitio y en cualquier momento, se puede coger información de más fuentes de datos, cruzarlas, que sea en tiempo real y tenerla en tu dispositivos”, explicó César Aguado.

“Mi sensación es que la principal tendencia es que la integración del Big Data en las empresas permite la aceleración de otras tecnologías”, afirmó De la Chica, y puso como ejemplo un descubrimiento científico que ha realizado una máquina sobre el funcionamiento de unos invertebrados, algo que los científicos eran incapaces de explicar. Otra tendencia es que “las personas están empezando a ser sensores”. “Es importante que las empresas sepan que el Big Data no es una moda, sino que aporta valor real”.

Otro tema que se puso sobre la mesa fue el hecho de poner los datos a disposición de todos los empleados de la compañía, una práctica cada vez más común en las empresas, como es el caso de Telefónica. “Hay que poner el business intelligence a disposición de la compañía, poner esa herramienta dentro de las organizaciones para que toda la información fluya y todos los empleados tengan tener acceso a los datos para tomar las mejores decisiones en base a ella”. “La evolución ha hecho que hoy por hoy la mayoría de los usuarios de una empresa tengan acceso a esa información, que se democratice la información”, señaló Aguado, aunque hay que tener presente que hay información que a veces no aporta nada, e incidió de la importancia de la seguridad en ese sentido, tanto para evitar ataques como para saber quién y cuándo accede a la información.

Respecto al business intelligence, De la Chica cree que abre muchas oportunidades que pueden aportar mucho valor en las empresas y que permiten afinar los procesos o predecir cambios, entre otras posibilidades. Romero agregó que, en su opinión, el principal valor es que “puede aportar valor para tomar decisiones más rápido”.

También se habló de otra de las tendencias del sector, la geolocalización. Según algunos estudios, prácticamente más del 80% de los datos que manejamos están geolocalizados, “lo que da una idea de la importancia de la geolocalización”, afirmó Parrón Tur, aunque el gran problema es “que no tenemos capacidad para interpretarlos desde el punto de vista espacial”. “Todo se puede geolocalizar y todo tiene interés en función al espacio en el que se geolocaliza”, añadió de la Chica.

Por último, Pellicer y De la Chica coincidieron en destacar que la captación de talento no era una tarea fácil para las empresas, ya que se requieren perfiles mixtos que formen parte de equipos multidisciplinares. Pero Gutiérrez Puebla se mostró optimista y confía en que pronto esto no será un problema, ya que es algo que ocurre con asiduidad en el mercado cada vez que llega una nueva tecnología. "Hace unos años nadie sabía usar los sistemas de información geográfica, y en poco tiempo ya había profesores cualificados para instruir".

Si quiere ver una parte de la mesa redonda no se pierda nuestra emisión en Periscope:

Te recomendamos

Eficacia

Atresmedia

ADN by DAN

icemd

Compartir