En apenas unos meses la inteligencia artificial ya está en boca de todos, y son bastantes las empresas que están sopesando implementar esta nueva tecnología en sus procesos productivos. Se trata de un pensamiento lógico si se observa cómo algunas compañías pioneras en la materia ya se han aventurado a dar ese paso, y están comprobando que este software es capaz de hacer más rápido y mejor el trabajo que hasta la fecha realizaban entre varios empleados.
Dejando a un lado las predicciones apocalípticas que afirman que nos acabará quitando el empleo a todos los humanos, lo cierto es que, en algunos sectores, y con cierta tipología de trabajos, la inteligencia artificial puede ayudar considerablemente a mejorar la productividad asumiendo diversas tareas de manera más rápida y efectiva. Ni tan siquiera tienen por qué ser tareas repetitivas, mecánicas o simples -como puede ocurrir con los robots, que es lo primero que a todos nos viene a la cabeza-, pues precisamente la inteligencia artificial tiene la capacidad de llegar a comprender, a crear, a interpretar… y a mejorar y evolucionar.
Es cierto que, hoy en día, y pese al asombro generalizado existente, esta tecnología aún tiene un camino largo que recorrer en su desarrollo. Aunque ya hay alguna compañía que excepcionalmente se ha aventurado a poner como CEO a una inteligencia artificial para que vaya tomando las decisiones estratégicas, la realidad es que en los resultados que ofrece aún comete errores de bulto. No se puede ser cortoplacista y desdeñar esta tecnología pensando que esto será siempre así, pues con el tiempo no solamente irá aprendiendo de sus propios errores, sino que se acabarán mejorando sustancialmente sus fuentes de información y su capacidad analítica. Mientras tanto, será imprescindible que exista una supervisión humana.
Si el trabajo de la inteligencia artificial forma parte del proceso productivo de una empresa y, por un error cometido por el programa, se genera un perjuicio a un cliente, será necesario depurar responsabilidades. Obviamente, frente al cliente la responsable es la propia empresa, pero a partir de ahí será necesario determinar quién carga con la culpa en último lugar. Probablemente el software haya sido desarrollado por una compañía distinta y entre los términos de uso -esos que nadie se lee- se especificará que no se hacen responsables de los fallos, errores o inexactitudes que el programa pueda llegar a ofrecer. Entonces, ¿quién asume el fallo? Sin duda, el empleado que tenía que supervisar el trabajo realizado por la inteligencia artificial, si es que había uno, deberá asumir su responsabilidad al no haberlo detectado. Pero si no lo hay, ¿el responsable será el informático de turno que se encarga de su mantenimiento y control técnico porque el programa no hizo lo que debía y para lo que supuestamente estaba preparado?
Esto nos debe llevar a pensar en la necesidad de mantener y desarrollar estos programas informáticos, que para un rendimiento óptimo no solamente deben ser alimentados con la información y documentación necesarias para que realicen las tareas encomendadas, sino que además se les tiene que «formar», corrigiéndoles los fallos en los que incurran para que no vuelvan a reincidir en ellos. Y en este aspecto, la responsabilidad de los trabajadores alcanza una nueva dimensión.
Primero fue Samsung. Más tarde, Apple. Y es probable que se vayan escuchando otros nombres de grandes empresas que han tenido que pisar el freno en el uso de la inteligencia artificial como consecuencia de un uso inadecuado de la misma por parte de sus empleados. Eso no significa que vayan a erradicar de sus procesos de trabajo el uso de esta tecnología, pues son enormes las ventajas que ofrece, sino que han observado que esta nueva forma de trabajar ha generado una serie de peligros que no habían sido advertidos previamente y sus empleados no estaban preparados para trabajar con ello. No han tardado en ser conscientes de que cuando hacían uso de este software, debían ofrecerle información interna de la compañía, de sus productos y de su know-how, lo que llevó inexorablemente a entregar información confidencial y muy sensible a un programa informático externo que manejaba dicha información de manera muy opaca. Y es que la cesión de los datos para alimentar a la inteligencia artificial está siendo ya objeto de controversia, hasta el punto de que Google ha lanzado Bard, su inteligencia artificial para el gran público, en todo el mundo menos en Europa para evitar un posible incumplimiento de la normativa en materia de protección de datos.
Parece claro que, si la empresa quiere comenzar a hacer uso de la inteligencia artificial, no debe perder de vista que es imprescindible que se produzca un proceso de cambio de mentalidad en sus trabajadores, y que estos reciban formación sobre todos los usos y ventajas que esta tecnología ofrece, pero también sobre sus peligros y riesgos. Del mismo modo, las empresas también deberán actualizar sus políticas internas para regular el uso que se puede hacer de la inteligencia artificial en el trabajo.
Por último, no podemos terminar sin hacer una pequeña mención al V Acuerdo para el Empleo, aprobado el pasado mes de mayo entre patronales y sindicatos, que dedica unos pocos párrafos a esta materia.
De manera genérica, aunque acertada, pone el acento en que “si no se hace un uso correcto y transparente, podría llevar a adoptar decisiones sesgadas o discriminatorias relativas a las relaciones laborales”.
Y, efectivamente, si la toma de decisiones recae sobre un programa informático en cuestiones tan sensibles como la contratación, la fijación de salario, las promociones profesionales, etc., cabe la posibilidad de que las mismas puedan estar sesgadas por parámetros que, pese a ser objetivos, puedan empujar a un trato discriminatorio. De ahí que el texto incida en que “el despliegue de sistemas de IA en las empresas deberá seguir el principio de control humano respecto a la IA y ser seguro y transparente”.