Skip to main content

Global Overview Magazine

Revista de actualidad política, religiosa, económica, social, cultural, científica y educativa con alcance internacional
ISSN 2618-1916

Impacto de los Aspectos Éticos de la Inteligencia Artificial en el Trabajo del Futuro

 

Impacto de los Aspectos Éticos de la Inteligencia Artificial en el Trabajo del Futuro

Por Lucía Rosario Malbernat, Profesora Titular e Investigadora de Universidad CAECE


Marzo 2023

Si bien los orígenes de la robótica industrial y la Inteligencia Artificial (IA) se remontan a mediados del Siglo XX y hace más de 30 años que la industria informática incluye técnicas propias de la IA en sus desarrollos, no es sino hasta la última década que las organizaciones empiezan a beneficiarse con estas tecnologías incluidas en sus procesos internos, sus productos informáticos y sus servicios, abriendo un futuro abanico de oportunidades y desafíos para las empresas y sus trabajadores, a costa de riegos y dilemas.

En la industria, la robótica hace la producción más eficiente, reduce los errores y puede aumentar la calidad de los productos mientras que la inteligencia artificial permite delegar a los sistemas informáticos tareas repetitivas y hasta toma de decisiones que antes eran realizadas por personas pero, ¿qué pasa con sus puestos de trabajo?, ¿qué nuevos accidentes pueden producirse?, ¿Qué pasa si se realiza un mal uso de la tecnología? Cuánto más potentes, fuertes o rápidos son los sistemas, más daño pueden causar.

En julio pasado, un Robot, Chessrobot, le rompió un dedo a un niño de 7 años durante un torneo de ajedrez en Rusia. Se habían definido reglas de seguridad que incluían esperar que el robot terminara su movimiento pero el niño se apresuró a jugar y el robot le atrapó la mano. La inteligencia artificial le ha permitido jugar y ganar al ajedrez pero no le valido para detectar el riesgo que implicaba su movimiento. Pero no sólo el Robot no supo que hacer ante lo inesperado… las autoridades del Torneo responsabilizaron del accidente, al menos inicialmente, al niño.

El avance de las nuevas tecnologías entre las que se incluyen Internet de las Cosas,
Realidad Aumentada, Big Data, etc., referidos a veces como Tecnologías 4.0, convirtió la interdisciplinariedad de la ciencia en ciencia transdisciplinaria -en la que una estrategia propia de una disciplina atraviesa los límites disciplinarios-, difuminando no sólo sus propias fronteras sino también las fronteras de lo físico, lo digital y lo biológico, tal como señala Klaus Schwab, Presidente del Foro Económico Mundial, en su libro “La Cuarta Revolución Industrial”.

Un caso extremo son las interfaces cerebro-computadoras que decodifican la actividad neuronal de un usuario con la finalidad de controlar dispositivos informáticos, prótesis o sillas de ruedas, que actualmente están acotadas al uso por parte de pacientes con parálisis profundas pero que abren un sinfín de posibilidades futuras que tendrán un alto impacto en las organizaciones.

Pareciera que hoy no tiene sentido hablar separadamente del mundo físico y del mundo digital porque son dos aspectos del mismo contexto. Cada vez más elementos de la vida cotidiana se virtualizan o se tecnologizan. Tal es el caso de las actividades financieras: Minimizamos el uso del dinero físico (monedas y billetes) y resolvemos hasta las compras más cotidianas mediante intercambios de información digital que pueden realizarse desde cualquier Smartphone. De un momento para el otro hemos dejado de llevar la billetera al mercado; alcanza con cargar el teléfono celular en un bolsillo.

Esos cambios tan dinámicos no solo han impactado en el usuario individual; han venido acompañados de nuevas maneras de producir y comercializar en las industrias 4.0 y han aportado nuevas miradas hacia los conceptos de trabajo, empleo y puestos de trabajo que permiten pensar, antes que en la sustitución de trabajadores por máquinas, en el verdadero potencial de los recursos informáticos para mejorar la futura vida laboral y la productividad de las empresas que deberán adaptar la mayoría de sus tradicionales puestos de trabajo a la nueva realidad.

Por otra parte, la madurez tecnológica de las organizaciones demandará recursos para afrontar las amenazas que ya recaen sobre el perfil tradicional de los empleados requeridos en cada puesto laboral. Esos recursos son del orden normativo y formativo.

Para la Organización Internacional del Trabajo, los avances tecnológicos implicados por la Inteligencia Artificial, la Automatización y la Robótica generarán nuevos puestos de trabajo y en la transición podrán perder sus empleos los menos preparados para aprovechar las nuevas oportunidades. Probablemente, las competencias en las que hoy se forma a los profesionales no se ajustarán a los trabajos de mañana y las nuevas competencias adquiridas podrán quedar desfasadas rápidamente.

Con la implantación efectiva de innovaciones basadas en inteligencia artificial a nivel gubernamental, industrial y comercial, las nuevas tecnologías inteligentes, capaces de resolver problemas complejos y, en ocasiones, capaces de aprender a partir del análisis de datos, comienzan a impactar en la sociedad y a tomar cuerpo algunos dilemas éticos que podrían no estar siendo contemplados en cada desarrollo.

Estos dilemas no son meros planteos filosóficos; por el contrario se materializan en riesgos concretos con alcance a personas individuales, organizaciones corporativas y estados, lo que ha llevado en el último quinquenio a la definición de estrategias y planes de desarrollo conscientes, con base en la capacitación y en la definición de normas, con el fin de enfrentar a los peligros de vigilancia masiva de fácil aplicación y mantenimiento, a las nuevas amenazas hacia la privacidad y dignidad de las personas, al aumento de prejuicios de género o étnicos, etc.

En este sentido se puede mencionar la polémica que generó en algunas regiones de Estados Unidos cuando se descubrió que tenía un sesgo racista el algoritmo Compas, Correctional Offender Management Profiling for Alternative Sanctions, que utiliza variables como sexo, edad, entorno económico-social y arrestos anteriores para determinar la probabilidad de reincidencia de un criminal y ayuda a los jueces a decidir si un acusado debe permanecer en la cárcel mientras espera el juicio.

Un estudio verificó que Compas acertaba en un porcentaje similar a los humanos, algo más del 60% de aciertos, si un convicto reincidiría en los dos próximos años y acertaba en un 20% en las predicciones de reincidencia con violencia; además, arribó a conclusiones muy peligrosas: los acusados negros fueron catalogados con mayor riesgo de reincidencia que el que realmente tenían mientras que los blancos fueron catalogados con menor riesgo. Compas había sido entrenado con datos históricos que incluían arrestos injustos de minorías raciales y eso ocasionaba la distorsión de las predicciones que orientaban hacia decisiones erróneas.

Claramente, los sistemas que utilizan IA deben ser transparentes y explicables. Las organizaciones que emplean este tipo de tecnologías, deberán garantizar la protección de los datos, deberán poder identificar, por ejemplo, quienes prueban y usan sus sistemas, que datos se utilizan en las pruebas y entrenamiento de modelos y cuál es la lógica de sus algoritmos, la cual deberá ser confiable, robusta y sin sesgos ideológicos, de género, étnicos, religiosos, etc.

Esta problemática es la que demanda el desarrollo de normas, la generación de buenas prácticas y la capacitación de todos los involucrados, independientemente del lugar que ocupen en la pirámide organizacional y del rol que ejerzan las cuales tendrán distintos niveles de alcance pero impactarán de lleno en el futuro del empleo.