Álvaro Rebollo Ena Ex Digital Marketing, Streaming & CRM Manager @ Sony Music Spain

Algoritmos, Big Data y sentido común

DataVaya por anticipado que no me considero en absoluto un neoludita, y que me encanta poder llegar a mis destinos con Google Maps, que me indique cuáles son las opciones de transporte público disponibles, o cuánto tiempo más voy a tardar en coche debido a un atasco (y si las cosas están tan mal que debería tomar una variante).

Cosas como ésta no hubieran sido posibles sin los enormes desarrollos en almacenamiento (digital) y computación de los últimos años, sobre los que se apoya la Inteligencia Artificial, y dos de sus “ramas” más conocidas: Éstas de los algoritmos y el Big Data sobre las que me dispongo a reflexionar en este artículo.

Los algoritmos, aparte de posibilitar cosas como las que comentaba antes de Google Maps, son capaces de recomendarte una canción en Spotify o una serie en Netflix en función de tus gustos (lo que has escuchado/visto antes desde luego… pero también seguramente cosas cómo dónde vives, cuántos años tienes, qué canciones o series has abandonado a la mitad, etc.)

Esto está genial y nos simplifica muchísimo la vida, pero debemos tomarlo en consideración de una forma mucho más crítica de lo que lo hacemos en la actualidad.

Así, voy a exponer a continuación una serie de casos de posibles utilizaciones de algoritmos:

  • El que comentaba antes de las recomendaciones de contenidos audiovisuales.
  • La concesión de un crédito en función del perfil del cliente del banco.
  • La autorización de un trasplante en función del perfil médico de un paciente.

Que el algoritmo se “equivoque” o no en el primer caso no es demasiado grave... pero sí lo es en el segundo (si no nos dan un crédito, cuando deberían haberlo hecho) o en el tercero (cuando no nos llega ese trasplante, haciendo que incluso lleguemos a no poder quejarnos de ello)

Debemos tener en cuenta que no es lo mismo “un falso positivo” que un “falso negativo”. Es decir, en principio es mejor que el algoritmo se “equivoque” aprobando créditos o trasplantes que negándolos.

Esto es algo que, desde luego, tienen en cuenta los expertos que crean los algoritmos, y aquellos que los usan, pero no está de más que nosotros seamos siempre conscientes también de su falibilidad, y básicamente por estos dos puntos:

  • Los algoritmos los diseñan personas humanas, y como tales, están sujetos a posibles fallos (siempre)
  • Como suele ocurrir en el mundo digital, se trabaja en “capas”. Es decir, la persona que utiliza los algoritmos no suele ser aquella que los ha creado. Así, para la primera, estos funcionan como unas “cajas negras” que generan resultados. Ésta es la forma de trabajo habitual en informática: En el nivel inferior todo son ceros y unos (de no paso o paso de electricidad), por encima se trabaja en un lenguaje muy cercano a la máquina, y luego en otros que se van asentando sobre los anteriores, hasta llegar a los más avanzados y superiores, más amigables de cara al programador (y cada uno de ellos confía en que todo funciona perfectamente en el anterior)

Y para que los algoritmos funcionen correctamente hay que alimentarlos con muchos datos. Ahí es donde entra en juego el Big Data, la otra gran rama de la Inteligencia Artificial que permite que nos planteemos a dónde nos puede llevar la transformación digital en todos los sectores.

El Big Data, simplificando muchísimo, no es sino lo que su propio nombre indica: “Grandes Datos” (o de una forma menos literal, en una mejor traducción, “Muchos Datos”). Lo que pasa es que, como indica la cita que suelen manejar los expertos en la materia: "El Big data es como el sexo en la adolescencia: Todo el mundo habla de ello, nadie sabe realmente cómo hacerlo, todos piensan que los demás lo están haciendo, así que todos dicen que también lo hacen..."

Y ésta, desgraciadamente, parece ser la situación en la que nos encontramos en muchos casos en la actualidad: Con mucha gente hablando de Big Data sin tener realmente una idea clara de cómo funciona o en qué se fundamenta.

Así, y por poner tan sólo un ejemplo (pero muy paradigmático), muchas empresas se plantean abordar proyectos de transformación digital, con utilización de herramientas de Big Data… ¡sin tener datos!

Esto de no tener datos es algo mucho más común de lo que podría parecer al principio, y es que todas aquellas empresas que no estén en contacto con el cliente final van a sufrir este tipo de problemas (si lo que estamos considerando es la utilización del Big Data para abordar asuntos con estos, como solemos hacer en el mundo del marketing)

Pensemos por un momento en aquellas empresas que sí tienen muchos datos: En el mundo “físico”, son empresas como las compañías de telecomunicación, energía, de salud, bancos… Y en el digital, todos los retailers (i.e. Amazon), redes sociales (i.e. Facebook), navegadores/plataformas (i.e. Google)

Así que, por otra parte, ¿cuáles son aquellas que no tienen tantos datos?: Todas las que, como comentaba antes, no están en contacto directo con el cliente final. Por ejemplo, marcas de ropa, productos de alimentación, discográficas, productoras audiovisuales…

Para todas éstas (que son muchas, a poco que lo pienses) va a ser muy difícil poner en marcha proyectos que aprovechen todas estas posibilidades sin contar con datos de terceros. Así, por ejemplo, en un sector que conozco muy bien (el discográfico), las multinacionales han comenzado a aplicar algoritmos predictivos (que “predicen” el futuro éxito de canciones en base al comportamiento de una serie de datos de otros temas en el pasado) usando datos que no  son suyos (sino de las plataformas que están en contacto directo con el consumidor, como puede ser Spotify; que, por cierto, ya ha anunciado que se plantea cobrar por este tipo de datos a las multinacionales)

Resuelto el problema del acceso a los datos, el siguiente paso es trabajar con ellos en esos algoritmos, teniendo en cuenta que estos funcionan adecuadamente si somos capaces de alimentarlos con muchos datos: Los disponibles ahora, e incluso otros que no se hayan considerado inicialmente, y que se descubran útiles para ese caso en el futuro.

Esto que parece tan sencillo lo permite una evolución brutal de las bases de datos, desde unas estructuras SQL (que son las típicas bases de datos que seguramente todos tenemos en la cabeza, tipo Excel, con filas y columnas) a unas NoSQL, que permiten almacenar cualquier tipo de dato, en diferentes ordenadores conectados entre sí, y accediendo a ellos en todo momento (encontrándolos)

Está genial vivir en la Unión Europea, y que desde Bruselas se preocupen de la utilización que las empresas hacen de nuestros datos, pero seguramente convendrás, en base a lo que acabo de explicar, que “poner puertas al campo”  en este terreno es muy loable, pero quizá no sea demasiado factible en la práctica.

Por todo esto, y como titulaba el artículo, deberíamos abordar los algoritmos y el Big Data con un espíritu crítico, y en especial con el menos común de los sentidos: El sentido común. Si no lo hacemos así, como bien canta Rosalía (y como espero que coincidas): “Malamente… Tra Tra… Mal, muy mal, muy mal…”

Álvaro Rebollo Ena, Ex Digital Marketing, Streaming & CRM Manager @ Sony Music Spain

Te recomendamos

TAPTAP

ICEMD

ADN

Recopilatorio

Enamorando

Compartir