La responsabilidad profesional en el uso de la Inteligencia Artificial

Columna de opinión de la Cra. Sol del Valle Figueroa, miembro de la Comisión Asesora de Tecnología y Gestión de la Información del CPCE de Córdoba.

Hoy, es casi imposible no sentirse tentado por las herramientas de inteligencia artificial. Nos ahorran tiempo, nos ayudan a ver lo que antes pasaba desapercibido y, en muchos casos, mejoran notablemente la calidad de nuestro trabajo.

Como profesionales, es lógico que las estemos explorando, probando e incluso incorporando a nuestra rutina.

Pero hay un tema que no podemos pasar por alto: qué hacemos con los datos que les damos a esas herramientas.

 Los datos que compartimos

En Argentina, la ley es clara: hay información que, por su naturaleza, requiere un trato especial.

No hablamos solo de números o saldos, sino de datos que dicen mucho sobre las personas: sus ingresos, sus deudas, sus decisiones fiscales, su situación económica e, incluso, indirectamente, sus creencias o su entorno social.

La Ley de Protección de Datos (25.326) los llama “sensibles” por una buena razón: porque su mal manejo puede afectar derechos fundamentales.

Y acá viene lo delicado: muchas de las herramientas de IA que usamos —sobre todo las gratuitas o las que no están diseñadas específicamente para entornos profesionales— no garantizan que esa información se quede en casa. Algunas, sin que nos demos cuenta, usan lo que les cargamos para “aprender” y mejorar sus propios sistemas.

Es decir: podríamos estar compartiendo datos de nuestros clientes sin querer y sin autorización.

Peor aún: si entrenamos o consultamos modelos con datos históricos cargados de desigualdades, la IA puede terminar repitiendo —o incluso agravando— esos sesgos. Por ejemplo, al evaluar riesgos crediticios, podría desaconsejar operaciones con emprendedores de ciertas zonas, no por su capacidad real, sino por prejuicios escondidos en los datos del pasado.

La responsabilidad profesional

Lo más importante que debemos recordar es esto: la tecnología no nos exime de nuestra responsabilidad profesional. Si algo sale mal —una filtración, un mal uso, un diagnóstico sesgado—, la culpa no la tiene la máquina. La tenemos nosotros. Y eso implica consecuencias legales, éticas y de confianza.

Por eso, antes de copiar y pegar un listado de clientes en una IA, vale la pena hacerse tres preguntas simples:

  • ¿Esta herramienta respeta la privacidad de los datos que le doy?
  • ¿Puedo usar una versión anonimizada o resumida para lograr lo mismo?
  • ¿Estoy al día con lo que dice la normativa y con las mejores prácticas del momento?

No se trata de tenerle miedo a la tecnología, sino de usarla con criterio, cuidado y sentido común.

Porque, al final del día, lo que nos distingue como profesionales no es cuán rápido usamos una herramienta, sino cuánto respetamos a las personas detrás de cada dato.

Y eso ninguna inteligencia artificial lo puede hacer por nosotros.

 

Esta nota informativa tiene carácter orientativo y no sustituye el asesoramiento legal especializado en materia de protección de datos.

WhatsApp
Facebook
LinkedIn
X