Cargando...
Estás aquí:  Inicio  >  Opinión  >  Gestión  >  Artículo actual

Incorporar en las empresas la ética en la inteligencia artificial

Por   /   5 diciembre, 2019  /   Sin Comentarios

Por Anne-Laure Thieullent, Responsable de IA y Analítica de Campgemini, firma especializada en servicios de consultoría, tecnología e internacionalización.

 

El uso ético de la inteligencia artificial (IA) resulta fundamental para ganar la confianza de los consumidores, según refleja un nuevo estudio del Instituto de Investigación de Capgemini. Hasta el punto de que los consumidores, empleados y la ciudadanía en general vigilan de cerca el avance de las empresas para aprovechar el potencial de la IA y se muestran dispuestos a premiar o castigar sus comportamientos.

En concreto, el citado estudio, titulado “Why addressing ethical AI”, revela que la mayoría de los más de 4.400 consumidores encuestados para el mismo señalan que serían más fieles, comprarían más y serían defensores de la marca si perciben que sus interacciones mediante funciones de IA con las empresas son éticas. Junto a esto, conviene también tener en cuenta que Implantación de inteligencia artificial, de Pixabayun 51% de los 1.580 directivos de grandes empresas de diez distintos países entrevistados también para este documento coinciden en que es importante garantizar que los sistemas sean éticos y transparentes.

De esta manera, lo cierto es que numerosas organizaciones se encuentran en una encrucijada en su uso de la IA. Consumidores, empleados y ciudadanos están cada vez más dispuestos a interactuar con la tecnología, pero son conscientes de las posibles consecuencias éticas. De ahí que las empresas deben establecer prácticas y sistemas éticos para el uso de la IA a fin de conseguir la confianza del público. No se trata solo de cumplir la normativa, pues también puede generar un beneficio significativo en términos de fidelidad, generación de buenas opiniones e implicación y creación de vínculos.

Así, las organizaciones deben priorizar una estrategia de ética en sus sistemas de IA. Y para conseguirlo, deben dedicar esfuerzos al establecimiento de estructuras de gobierno adecuadas, si bien no solo deben elaborar un código de conducta basado en sus propios valores, sino también incorporar principios éticos en la fase de desarrollo (“ethics-by-desing”) y, sobre todo, informar al público sobre cómo interactuar con la IA y capacitarle para expresar su postura al respecto.

En concreto, es recomendable seguir una aproximación triple para construir una estrategia de ética en IA que abrace a todos los niveles:

  • 1) De cara a la alta dirección y a aquellas personas con responsabilidad en asuntos éticos: Establecer fundamentos sólidos a través de una estrategia específica y un código de conducta de IA; desarrollar políticas que definan los límites de un uso aceptable de la IA de la compañía y su aplicación; crear estructuras de gobierno éticas y garantizar la asunción de responsabilidades; y construir equipos diversos que inculquen y aseguren la sensibilidad hacia el amplio espectro de cuestiones éticas.
  • 2) De cara a los departamentos con relación directa con clientes y empleados (como recursos humanos, marketing y servicio al cliente): Asegurar el uso ético de la IA; educar e informar a los usuarios para generar confianza en los sistemas de IA; capacitar a los usuarios dándoles más herramientas de control y reclamación; comunicar de forma proactiva, internamente y externamente, casos cuestionables en torno a la IA para construir confianza.
  • 3) De cara a los responsables de TI, AI y analítica de datos y sus equipos: Buscar la manera de que los sistemas de AI sean lo más transparentes y comprensibles posibles para ganar la confianza de los usuarios; hacer una gestión correcta de los datos y reducir los posibles sesgos en ellos; hacer seguimiento continuado de su rigor y precisión; y aprovechar las herramientas tecnológicas para incorporar los principios éticos en las soluciones o funciones de IA.

En esa misma línea, Luciano Floridi, director de Digital EthicsLabs, del Oxford Internet Institute, incide en que la forma básica de ganar confianza, especialmente en las interacciones con la IA, puede resumirse en tres palabras: transparencia, responsabilidad y capacitación. Transparencia para que las personas puedan ver qué haces; responsabilidad porque asumes la responsabilidad de lo que haces; y capacitación porque proporcionas las herramientas para que el consumidor o el empleado comunique que lo que haces no es correcto o adecuado (empoderamiento).

    Print       Email

Sobre el autor

Tras casi 35 años posicionada como la principal revista económica especializada en gestión y management, y habida cuenta de los nuevos modos y necesidades de sus habituales lectores (directivos, emprendedores y empresarios en un 90% de los casos), NUEVA EMPRESA lleva apostando desde principios de 2009 por el mercado digital, convirtiendo la Web en el principal punto de nuestra estrategia, dejando la edición en papel exclusivamente destinada a números especiales sin una periodicidad estipulada.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *