¡No hay eventos!
Top

I.A. y el error de convertirse en una empresa “wannabe”

El término “wannabe” remite a las personas con avidez de imitación a un determinado modo de ser aspiracional, para pertenecer. En las empresas, se podría circunscribir al afán de parecer cierto tipo de compañía, dejándose llevar por el concepto de moda, sin apoyarse en cambios estructurales reales y en el largo plazo.

En las empresas, podríamos circunscribirlo al afán de parecer cierto tipo de compañía, dejándose llevar por el concepto de moda, sin apoyarse en cambios estructurales reales y en el largo plazo.

En “Yo, robot”, película basada en la obra de Isaac Asimov, el detective protagonizado por Will Smith investiga la muerte del Dr. Lanning, un científico especializado en robótica. Este último ha dejado un holograma interactivo, que puede ofrecer ciertas respuestas para la resolución de su presunto asesinato. Sin embargo, en varios pasajes del film dicho holograma repite, ante preguntas del detective, la frase genérica “Lo siento, mis respuestas son limitadas. Debes realizar las preguntas apropiadas”.

El film adelantaba, rudimentariamente, lo que en ocasiones hoy ocurre cuando interactuamos con sistemas de I.A. tales como Chat GPT.

Las respuestas no son incorrectas per se, pero pueden resultar insuficientes no por el contenido sino por la enunciación de la pregunta. Implica que debemos reformularla en sucesivas iteraciones, con mayor especificidad y parametrización, hasta llegar a un output satisfactorio.

Es decir, el prompt que suministramos (la pregunta, el input que “nutre” a la I.A.) debe tener ciertos requisitos de base y así obtener resultados valiosos para quien pregunta.

Las I.A. aprenden… ¿y las empresas?

El holograma del Dr. Lanning en “Yo, robot” funciona como un modelo primitivo de lenguaje generativo tal como los que actualmente utilizamos; a diferencia de éstos, operaba sobre una base de datos fuertemente limitada y estanca.

Los sistemas de I.A. aprenden, y se han descripto infinidad de utilidades, pronósticos y potenciales riesgos de esta capacidad. Muy poco foco se ha puesto sobre la contraparte humana y como aprender a utilizar la I.A. para el máximo provecho en ese vínculo.

Los individuos, las organizaciones y sobre todo las empresas pueden frustrarse por no “saber preguntar”. Precisamente, la clave en la interacción entre el holograma y el personaje de Will Smith es que es el humano quien aprende qué y cómo preguntar.

El riesgo de convertirse en una empresa “I.A. – wannabe”

El término “wannabe” (contracción de want to be) remite a las personas con avidez de imitación a un determinado modo de ser aspiracional, para pertenecer.

En las empresas, podríamos circunscribirlo al afán de parecer cierto tipo de compañía, dejándose llevar por el concepto de moda, sin apoyarse en cambios estructurales reales y en el largo plazo.

Cuando la moda anhelada es la I.A., esto implica erogaciones significativas en plataformas y herramientas sub-utilizadas con outputs de escaso o nulo valor operacional.

Pero, ¿qué significa “saber preguntar” cuando pensamos la I.A. como una herramienta empresarial? ¿Qué ocurre cuando el sistema complementario a la I.A. que suministra las “preguntas”, no es un individuo sino una organización con objetivos de rentabilidad? ¿Qué conlleva “nutrir” la I.A. con inputs de valor?

Implica tener los basamentos sobre los cuales se retroalimentará la suite / herramienta de I.A.:

  • Procesos parametrizados y claros para que la I.A. pueda generar oportunidades de mejora, automatización y mayor eficiencia. Una empresa carente de procesos consistentes es una organización random, con resultados inesperados y desconocimiento de la causa real de los mismos. Para estos problemas, claramente no es una herramienta de I.A. (por lo menos por ahora) la solución primera.
  • Datos válidos y de relevancia, a partir de los cuales la I.A. realice, por ejemplo, predicción de tendencias de mercado certeras. Hoy, disciplinas como data mining / data science son carreras universitarias; las organizaciones que no cuenten con datos válidos y unívocos sobre sí mismas y el entorno no generarán información relevante a partir de ellos, ni por medios “tradicionales” ni a través de la I.A. En industrias productivas o logística, por citar ejemplos, donde el sustrato para los datos es de carácter físico tangible este ítem es de vital importancia y atención en el cortísimo plazo.
  • Capacitación para la “interfaz humana”. Aún con lo antedicho cubierto, es necesario un proceso de (trans) formación de los recursos que interactúen con la I.A., tanto en aspectos técnicos como psicoemocionales y comunicacionales de los colaboradores (humanos). Sobran en este punto las expectativas catastróficas y escasean las políticas de acompañamiento desde RR.HH., como partner del negocio.
  • Objetivos Específicos, Medibles, Alcanzables, Realistas y Timely (acotados en plazos); la vieja y querida metodología S.M.A.R.T. Si la empresa carece de un norte estratégico delimitado, comunicado y concreto, no será la I.A. quien supla esa falencia (nuevamente, por ahora).

Las herramientas de I.A. deben encontrar terreno fértil para un retorno de inversión positivo. Pecar de empresa “wannabe” conlleva costos hundidos por implementaciones de plataformas de I.A. a destiempo y mal ejecutadas.

Peor aún, implica un aspecto fuertemente desmotivador en los colaboradores, que ven que la “panacea” no resultó y que el esfuerzo de implementación fue en vano. Incluso, generará una postura reactiva ante la I.A., ya de por sí con mala imagen por los temores respecto a la suplantación de trabajos hoy ejecutados por humanos.

 “Aprender a preguntar” a la I.A.

La I.A. posiblemente sea la mayor revolución en la historia del trabajo, y los desafíos que suscita son inconmensurables. “Aprender a preguntar”, como el personaje de Will Smith, será el equivalente en las empresas de jugarse la subsistencia en el mediano plazo.

Experimentos recientes de Carnegie Mellon University demostraron que una empresa donde todos los empleados son agentes de I.A. resulta parcialmente inviable (una vez más, sólo por ahora). La I.A. falló, entre otros aspectos, en la contextualización y comprensión de determinadas instrucciones o prompts.

Queda en manos de los humanos generar un ambiente propicio para la integración de la I.A. a la dinámica de la empresa. Quizás en poco tiempo RR.HH. (Recursos Humanos) pase a denominarse RR.CC. (Recursos Cognitivos), donde colaboren “de igual a igual” humanos y agentes de I.A. Al día de hoy, la gestión cultural de las organizaciones y promoción del cambio sigue siendo exclusivamente humana.

La I.A. como toda herramienta (en tanto no desarrolle autoconsciencia y sin entrar en las implicancias éticas de esta singularidad), no deja de ser una vía para un objetivo.

El intangible más valioso de las empresas es entonces la buena gestión e integración de la I.A. en los procesos, y no la herramienta en sí.

Columna de Patricio Navarro Pizzurno, docente de posgrado de la Asociación Argentina de Logística Empresaria,  directivo de RRHH y consultor organizacional publicada en Infobae/Movant el pasado 7 de agosto.

Compartir