líderes en noticias de marketing, publicidad y marcas

Marketing e Inteligencia Artificial: ¿cómo defenderse de los prejuicios?

EspecialesEnamorando al ConsumidorOrdenador con inteligencia artificial

La lucha contra los prejuicios en inteligencia artificial

Marketing e Inteligencia Artificial: ¿cómo defenderse de los prejuicios?

Redacción

Escrito por Redacción

Ilaria Zampori, General Manager de Quantcast en España e Italia, revela las claves para dejar de lado los prejuicios sobre la inteligencia artificial en la industria del marketing.

La Inteligencia Artificial (IA) y el machine learning (ML), se están convirtiendo en piezas clave en el sector del marketing digital. Estas tecnologías aportan diversos beneficios ya que, por ejemplo, permiten a los profesionales del sector obtener insights relevantes a partir de los datos generados por las diferentes actividades empresariales. De hecho, la función principal de estas tecnologías, es proporcionar información inteligente sobre los clientes y el negocio.

Se trata de un intercambio basado en un valor indispensable: la confianza en la Inteligencia Artificial. Sin embargo, para confiar plenamente en esta tecnología, los profesionales del marketing y los anunciantes, deben ser conscientes de la existencia de un sesgo algorítmico, un término técnico que detecta un error debido a suposiciones incorrectas en el proceso de aprendizaje automático. Estos «sesgos» pueden afectar al correcto alcance del público objetivo pero gracias a una IA responsable, pueden limitarse.

Hoy en día muchas empresas se sienten obligadas a adoptar sistemas de IA para adelantarse a la competencia. Esta presión tiene sentido, ya que esta tecnología puede impulsar un cambio y ayudar a optimizar  costes. Sin embargo, al igual que con otras tecnologías, es importante entender bien los riesgos que puede conllevar. Para entender lo que esto significa, podemos analizar algunos ejemplos de incidentes que pueden ocurrir por el mal uso de la IA.

grafica quantcast

Uno de los riesgos más destacados es el llamado «data poisoning», es decir, la contaminación deliberada de datos por parte de hackers expertos en Inteligencia Artificial. Existen numerosos ejemplos, uno de los más sonados se dio en 2016, cuando el chatbot de una plataforma de social media, fue manipulado para usar un lenguaje negativo, siendo este racista y ofensivo. La organización sin ánimo de lucro Partnership on AI, que lucha por un uso responsable de la Inteligencia Artificial, elabora una base de datos que incluye más de 1.200 informes públicos con incidentes similares relacionados con la IA. Además, en los últimos años, este tipo de riesgos  despiertan un gran interés por parte de los medios de comunicación y los periodistas. Es por eso, que las marcas deben prevenirlas y evitar así una crisis de reputación .

Entre los incidentes más comunes, está la llamada discriminación algorítmica que se produce cuando la IA y el machine learning no transmiten el mensaje correcto a un grupo demográfico específico. Para los profesionales del marketing y los anunciantes, tener un sesgo podría significar no llegar al público adecuado y, en consecuencia, perder posibles oportunidades de venta. En este sentido, es necesario entender y educar a la Inteligencia Artificial en la que se decide confiar no sólo las campañas publicitarias, sino también el presupuesto de la empresa y los beneficios de la marca relacionados.

Otro error que podría implicar a los sistemas de IA, es la falta de transparencia y responsabilidad. Ambas son fundamentales y deben ir acompañadas para que la IA sea interpretable y entendible por todos: esto permite la comprensión y la revisión humanas, así como un mayor control. Por ello, toda empresa debe hacer un seguimiento de todos sus sistemas de IA, examinarlos y asegurarse de que funcionan correctamente. También son cruciales las medidas básicas de seguridad informática, como los programas de recompensas por errores y las pruebas realizadas por expertos. Además, también puede ser útil documentar los sistemas de IA y machine learning implantados, creando un manual para solucionar los problemas e incidencias que puedan surgir, permitiendo así una resolución de los inconvenientes a tiempo. En este sentido, en Quantcast hemos desarrollado una plataforma propia de audience intelligent impulsada por Ara™,  el motor de IA y machine learning patentado por la empresa, que se somete constantemente a diversos procesos, como rigurosas auditorías académicas y revisiones realizadas por expertos en machine learning  altamente cualificados.

En este sentido, es importante que las empresas tengan en cuenta algunas claves a la hora de evaluar la Inteligencia Artificial que utilizan. Una de ellas es la equidad, ya que hay que saber valorar las diferencias en cuanto a los resultados, o la precisión de las decisiones del modelo entre los distintos grupos demográficos. Otra de las claves, es la transparencia a la hora de saber si es posible explicar cómo el modelo toma determinadas decisiones, así como la negligencia, ya que la empresa debería poder demostrar que la IA que utilizan es segura, fiable y también privada. Otro de los aspectos a tener en cuenta es la autonomía del sistema, la certeza de que la IA no va a tomar decisiones no autorizadas en nombre de la empresa es esencial para un correcto desarrollo de la misma. Además, la empresa debe plantearse si su IA es segura y si existen normas definidas y aplicables en el modelo. Tampoco se debe olvidar, si en el desarrollo del sistema, están involucrados terceros: herramientas, servicios o personal y ser capaces de tener estas cuestiones perfectamente controladas.

Es muy probable que la IA tenga sesgos discriminatorios y los gestores deberían asegurarse de que los perfiles técnicos se esfuerzan por encontrar y resolver las incidencias teniendo un enfoque humano. Los humanos deben seguir vigilando la tecnología porque, aunque son el problema, son, también, la única solución.

En conclusión, es necesario un cambio de mentalidad para pasar de la eliminación del riesgo a una mitigación más factible del mismo. Las tres causas de los accidentes -fallos, ataques y abusos intencionados- son difíciles de prevenir. Para estar preparadas, las empresas deben elaborar un plan que haga frente a cualquier problema que surja, desarrollando y comunicando sistemas y metodologías de detección claros; contar con procesos para mitigar los fallos o los ataques de IA a medida que se descubren; definir cómo y cuándo se resuelven totalmente los incidentes; garantizar cuándo y cómo los sistemas vuelven a la normalidad; y, por último, aprender de cada incidente para que no se repitan.

Ilaria Zampori, General Manager de Quantcast en España e Italia

 

Accenture Interactive estrena el cargo de Chief Creative Officer y se lo confía a Neil HeymannAnteriorSigueinteDiez años en YouTube: Rubius celebra su aniversario con un documental en Amazon Prime Video

Contenido patrocinado