Hay empresas en las cuales sus colaboradores pueden apoyarse en el ChatGPT, en Bard, en Bing o en alguna otra herramienta de inteligencia artificial generativa. Pero ellos no están obteniendo los resultados y dejan de usarlas. ¿Por qué?
El otro día conversaba con alguien que trabaja en una firma de servicios y me contó que en la empresa les dieron luz verde para usar herramientas de inteligencia artificial generativa.
La idea era apoyarse en este tipo de plataformas para hallar respuestas a situaciones concretas y así ayudar mejor a los clientes.
Al poco tiempo dejan de usarlas, empero. (Si es que llegaron a usarla.)
El resultado que obtienen no es lo que esperan. No siempre la respuesta ayuda a resolver la situación, la duda o a obtener la ayuda que requieren para brindar soporte a un cliente que están atendiendo.
Lo más grave es que la competencia les gana la partida. No solo hablamos de las 100 herramientas de inteligencia artificial más novedosas. O podríamos hacer el listado de las más útiles. O el ranking de las más utilizadas.
OpenAI incluso abrió su tienda en línea de apps de herramientas de inteligencia artificial basadas en su tecnología GPT.
Y Google, que tiene su propio chat Bard, lanzó su plataforma de inteligencia artificial generativa Gemini, para que las desarrolladoras la utilicen creando apps basadas en su tecnología.
LEA MÁS: Probamos ChatGPT, Bard y otra herramienta para crear textos de redes sociales: vea el resultado
Estamos viviendo una explosión de herramientas de inteligencia artificial.
Las hay para todo. Incluso, viejas herramientas o apps incorporan la tecnología de inteligencia artificial. Podían perder competitividad frente a otras rivales. O, desde lo más básico o elemental de un negocio, deben ajustarse, avanzar y actualizarse según las necesidades de sus clientes actuales y potenciales.
Dos son las causas típicas de que los colaboradores renuncien a usar las herramientas (dejando de lado de que hay aplicaciones que son de pago y aquí es evidente que no es el colaborador quien debe asumir el costo):
—Las instrucciones: el resultado que generan las herramientas dependen del prompt que se le brinde. Si no se sabe hacer un prompt efectivo, la respuesta de la herramienta no será precisa.
—Qué hacer con el resultado: por lo regular la herramienta no generará la respuesta que uno quiere, necesita o espera. La respuesta que brinda el sistema de inteligencia artificial generativa debe adaptarse, ajustarse y modificarse según la necesidad.
No solo se trata de datos falsos o informaciones erróneas que están sirviendo de base a la plataforma.
Claramente, quien trabaja con datos reconoce que siempre se presentan las llamadas alucinaciones.
Es decir, se pueden obtener información que parece precisa, coherente y correcta, pero que no lo es, que no se basa en hechos reales o que no parte de un conocimiento verificable.
Para redactar las instrucciones correctas y reconocer cuáles respuestas son útiles y utilizables las personas deben ser capacitadas y entrenadas.
Le pregunté al mismo ChatGPT sobre esta cuestión. Y me respondió esto:
Hay varias razones por las cuales algunas personas podrían dejar de usar ChatGPT u otros modelos de lenguaje similares. Algunas de estas razones pueden incluir:
Limitaciones en la comprensión contextual: aunque GPT-3.5 es poderoso, a veces puede tener dificultades para comprender el contexto específico o recordar información previa de la conversación, lo que puede llevar a respuestas incoherentes o malentendidos.
Posibles sesgos: los modelos de lenguaje pueden reflejar sesgos presentes en los datos con los que fueron entrenados. Esto puede resultar en respuestas que contienen prejuicios o discriminación.
Privacidad y seguridad: algunas personas pueden tener preocupaciones sobre la privacidad y la seguridad al utilizar plataformas de inteligencia artificial, especialmente si la información compartida es sensible.
Necesidad de interacción humana: aunque los modelos de lenguaje pueden ser útiles, algunas personas prefieren la interacción humana genuina y encuentran que los modelos de lenguaje no pueden replicar completamente esa experiencia.
Requisitos técnicos: algunas personas pueden no sentirse cómodas o familiarizadas con la tecnología detrás de estos modelos, lo que podría llevar a su abandono.
Limitaciones en la acción real: aunque ChatGPT puede proporcionar información y respuestas, no puede realizar acciones físicas en el mundo real, lo que puede limitar su utilidad en ciertos escenarios prácticos.
Costo: dependiendo de la implementación, algunos servicios basados en modelos de lenguaje pueden tener costos asociados, lo que podría ser una barrera para algunos usuarios.
Es importante tener en cuenta que estas razones pueden variar según la persona y sus necesidades específicas. A pesar de estas limitaciones, muchas personas encuentran útiles y fascinantes los modelos de lenguaje como ChatGPT para diversas tareas y actividades.
Dejando de lado varias de las razones (como el costo de algunas apps), insisto en que claramente las personas deben ser capacitadas o entrenadas.
En lo primero que se debe capacitarlas es en cómo redactar los prompts.
Y en cómo elegir una opción —entre las respuestas brindadas— para adaptarla, ajustarla y modificarla según lo que se necesite, también se debe capacitar a las personas:
Las personas deben estar entrenadas para que sepan qué deben elegir y para adaptar las opciones, según las circunstancias, y no usar o rechazar la primera que se les ocurra.
Deben estar entrenadas para reconocer la información y los datos correctos en las respuestas generadas por la herramienta o para saber cómo corroborarla.
También para reformular las respuestas obtenidas y utilizarlas para resolver la situación que se presenta.
Y, finalmente, para verificar que la situación se resolvió efectivamente, darle seguimiento, obtener retroalimentación y producir nuevas soluciones.
La capacitación también debe resolver desconfianzas o brechas técnicas y culturales.
Dejar a la libre el uso de los sistemas, aplicaciones y plataformas de inteligencia artificial generativa no es la mejor vía y tiene dos consecuencias:
—Una es que se dejen de usar las herramientas de inteligencia artificial, se desaproveche la tecnología y se pierda competitividad.
—La otra es que las respuestas generadas por las aplicaciones se utilicen incorrectamente, que los resultados finales no sean los esperados y, con ello, más bien se tengan efectos no deseados en la operación.
Se pide correctamente, y para sacar ventaja a la competencia, a los colaboradores usar las herramientas de inteligencia artificial. Pero no se piensa ni en una breve sesión de entrenamiento.
No cuesta nada. Solo hay que saber hacerla.