Chatbots y sus errores inevitables

Chatbots y sus errores inevitables

 

A 11 de julio del 2024. Lizeth Cuahutle

 

La inteligencia artificial (IA) ha avanzado rápidamente en los últimos años, impactando sectores como la medicina, la educación y el transporte. A pesar de sus impresionantes capacidades, la IA enfrenta limitaciones intrínsecas que desafían nuestras expectativas, especialmente en relación con las alucinaciones de los chatbots, es decir, respuestas erróneas o inventadas. Aunque la tecnología ha mejorado, los expertos afirman que estas alucinaciones son inevitables, generando creciente preocupación.

 

Un caso en Nueva York el año pasado destacó los riesgos de depender ciegamente de la IA. Un juez federal multó a un bufete de abogados porque uno de sus abogados usó ChatGPT para redactar un escrito legal que contenía falsedades y casos jurídicos inventados. Este incidente demuestra que los chatbots pueden generar información incorrecta con una seguridad que puede engañar a profesionales experimentados.

 

Las alucinaciones en modelos de lenguaje como GPT-4 se deben a su diseño. Estos modelos están entrenados para predecir palabras en una secuencia de texto basándose en patrones aprendidos de grandes cantidades de datos, sin comprender realmente el mundo. Esto puede llevar a respuestas plausibles pero incorrectas. OpenAI y Microsoft advierten que sus herramientas de IA pueden cometer errores y recomiendan verificar la información.

 

Investigaciones de Stanford y Yale han mostrado que estos errores son comunes en contextos legales. Los modelos a menudo no pueden distinguir entre hechos y ficción. Subbarao Kambhampati, de la Universidad Estatal de Arizona, señala que estos modelos fueron diseñados para generar texto, no para ser puramente precisos, y sugiere reconsiderar cómo los utilizamos.

 

Para mitigar las alucinaciones, los expertos proponen integrar sistemas de verificación de hechos que trabajen junto a los modelos de lenguaje. Amr Awadallah, de la plataforma de IA Vectara, está desarrollando un detector de alucinaciones. También se investiga el desarrollo de modelos especializados que utilicen información de fuentes confiables para mejorar la precisión.

 

 

Pincel de luz, usa cookies estrictamente necesarias, así como otras tecnologías similares, para poner en funcionamiento este sitio web y brindarle una mejor experiencia de usuario. Aceptar Leer más