En este encuentro del LabS Inteligencia Artificial Responsable e Inclusiva, SERES puso el foco en trabajar con las empresas para que al desarrollar su actividad tengan en cuenta el compromiso social. SERES trabaja en modelos que se integren en las estrategias de las compañías, que apoyen los Objetivos de Desarrollo Sostenible (ODS) y que se implementen desde la alta dirección a todos los departamentos. ¿Por qué hablamos de IA responsable? Porque forma parte del núcleo de las organizaciones. ¿Y por qué hablamos de IA inclusiva? Porque el objetivo es lanzar un conocimiento práctico para que esta temática si incorpore en la agenda de las empresas.
Nos encontramos ante una nueva forma de trabajar, una nueva realidad. La IA es un mercado que representó 17m euros el año pasado y que pasará a 196m euros en 2025. Se trata de una oportunidad exponencial, que, además, implica impactos importantes en el empleo.
En este sentido, la IA puede afectar a los colectivos más vulnerables y los sesgos se deben tener en cuenta para evitar que se pueda discriminar y tener un impacto negativo en la sociedad. Nos tenemos que asegurar que lo que desarrollemos contribuya positivamente a nuestro entorno.
Dentro del marco de la Inteligencia Artificial, David Pereira Paz – Head of Data & Intelligence for Europe en everis, habló del framework a recorrer pasando por 4 hitos concretos: algoritmos, gobernanza, organización y sociedad.
Mayte Sánchez Hidalgo - Head of AI Strategy & Ethics y Andrea Cornavaca – AI Ethics expert, en everis posteriormente concretaron cada uno de los pilares intercalando con una encuesta dinámica en tiempo real dirigida a las empresas participantes, poniendo especial interés en los algoritmos: matizando de qué forma va a cambiar tanto el modo de trabajar, o la forma de relacionarse. También se mencionó el hecho de intentar ver la ética de una forma global y no desde un único punto de vista. Otro aspecto que se comentó fue como la IA va a tener un impacto significativo y, por lo tanto, hay que garantizar que haya transparencia. Se señaló que algunas decisiones tendrán un impacto más crítico, por lo que habrá que utilizar modelos de explicabilidad más sencillos. Esta explicabilidad servirá para evaluar los distintos sesgos a lo largo del ciclo y tendrá como objetivo evitar que las decisiones perpetúen este sesgo.
También se trató la privacidad de los datos y como la vida de estos en la organización debe ser objeto de un uso responsable. En cuanto a la seguridad y la robustez, no solo es importante controlar lo que hace cada organización con los datos, sino protegerse de intereses maliciosos. Adicionalmente, se mencionó el concepto de hacking ético. En materia del gobierno del dato y del algoritmo, lo principal fue mencionar que las responsabilidades que se asignan tienen una doble cara: como garantizar que una persona supervise una decisión que a priori está automatizada y quien hacer responsable de esta supervisión.
En la sesión se abarcaron también otras cuestiones, como por ejemplo la organización entendida como mezcla de dos elementos: el liderazgo ético y la cultura. En este apartado se citó una matriz de 8 riesgos o los elementos que deberían componer un comité ético. Por otro lado, con relación a la sociedad se analizaron posibles oportunidades y riesgos del uso de la IA.
En conclusión, la Inteligencia Artificial tiene cada vez más presencia en la sociedad y sobre todo en las actividades empresariales, por lo que se deberá aprender a manejar esta herramienta que tiene oportunidades y retos. Es por ello que se pretende conocer de la mano de las empresas implicadas para anticiparnos y ver las ventajas que proporcionará a las personas.