En estos tiempos de disrupción digital estamos viendo como cada vez más, RPA, IA y otras tecnologías se están abriendo paso en el ámbito laboral, y como ya lo he dicho en anteriores artículos, representa un desafío para los auditores que tiene la obligación de entender los procesos que están auditando.
Una de las falencias de concepto más relevantes es pensar que la implementación de estas tecnologías de por sí, resuelven cualquier problema. Este pensamiento es el que nos puede llevar a realizar una evaluación de riesgos de un proceso particular de forma errónea, sobrestimando las herramientas que por ejemplo IA provee.
La IA no es perfecta, y de por si en el estado actual de evoluación en el cual se encuentra tiene ciertas falencias que es necesario conocer, pues conociendo estas, es que podremos realizar una mejor tarea como auditores:
Parcialidad/ Sesgos: Un sistema de IA puede ser parcial, esto ¿que significa?, que dado que mucho de los sistemas pueden aprender en base a análisis de datos y esos datos pueden encontrarse sesgados, por lo tanto, el sistema de por si realizará acciones afectadas por ese sesgo. Por ejemplo, si el sistema debe realizar analogías y para ello verifica información de la internet o bien de determinados sitios en donde cuando asociamos el trabajo de una mujer lo hacemos con ama de casa, esto implica que en cualquier analogía que hagamos relacionada con trabajo, seguramente identificará a la mujer con el concepto de ama de casa.
Estos sesgos pueden tener un impacto realmente importante, por ejemplo, hay caso de empresas que han utilizado sistemas de IA para el otorgamiento de créditos los cuales luego se comprobó que otorgaban menos créditos o bien con tasas más altas a minorías.
Por lo tanto, un sistema de IA no es perfecto de hecho puede tener sesgos, su comportamiento está afectado por la claridad de los datos e información que posea. Se ha demostrado que las minorías son más susceptibles a estos sesgos precisamente por una cuestión estadística, pueden no estar contemplados o bien de forma no proporcional en el volumen de información que se maneja.
La inteligencia artificial también puede estar expuesta a los ataques adversos, esto ¿qué significa? que otros pueden intentar que estos sistemas hagan cosas que no deberían hacer. Por ejemplo, un sistema que identifica defectos o reconoce patrones en fotos, a través de una pequeña manipulación, tal vez no percibida por el ojo humano, podría identificar erróneamente esa foto y por lo tanto tomar incorrectas en base a esta interpretación.
Un auditor debe estar al tanto de estas situaciones a fin de considerarlas en su análisis. Algunas de las soluciones propuestas son en principio la utilización de información menos sesgada, más amplia y que contemple todas las situaciones. Otra solución es someter al sistema a un mayor nivel de transparencia, esto significa realizar una auditoría del sistema a los fines de evaluar el sistema y detectar los sesgos. En el caso del sistema de otorgamiento de créditos, un ejemplo sería probar con varias posibilidades de otorgamiento de créditos de varios grupos etarios a los fines de evaluar como el sistema se comporta en todas estas situaciones.
Y otro tema fundamental es que el uso de la tecnología y en este caso de estas nuevas tecnologías (RPA, IA), no nos impida tener un juicio crítico al momento de realizar nuestro análisis de riesgos en un proceso.