Pase suficiente tiempo con ChatGPT y otros chatbots de inteligencia artificial y no tardarán en soltar falsedades .
Descrito como alucinación, confabulación o simplemente inventar cosas, ahora es un problema para todas las empresas, organizaciones y estudiantes de secundaria que intentan obtener un sistema de inteligencia artificial generativa para redactar documentos y realizar el trabajo. Algunos lo están utilizando en tareas con el potencial de consecuencias de alto riesgo, desde psicoterapia hasta investigación y redacción de informes legales .
“No creo que haya ningún modelo hoy en día que no sufra alguna alucinación”, dijo Daniela Amodei, cofundadora y presidenta de Anthropic, fabricante del chatbot Claude 2.
“En realidad están diseñados para predecir la siguiente palabra”, dijo Amodei. “Entonces, habrá una cierta tasa en la que el modelo lo haga de manera incorrecta”.
Anthropic, OpenAI, fabricante de ChatGPT, y otros importantes desarrolladores de sistemas de IA conocidos como grandes modelos de lenguaje dicen que están trabajando para hacerlos más veraces.
Queda por ver cuánto tiempo llevará eso, y si alguna vez serán lo suficientemente buenos como para, por ejemplo, repartir consejos médicos de manera segura.
“Esto no se puede arreglar”, dijo Emily Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. “Es inherente a la falta de coincidencia entre la tecnología y los casos de uso propuestos”.
Mucho depende de la confiabilidad de la tecnología de IA generativa . El McKinsey Global Institute proyecta que agregará el equivalente de $ 2.6 billones a $ 4.4 billones a la economía global. Los chatbots son solo una parte de ese frenesí, que también incluye tecnología que puede generar nuevas imágenes, videos, música y código de computadora. Casi todas las herramientas incluyen algún componente de lenguaje.
Google ya está lanzando un producto de IA de redacción de noticias a las organizaciones de noticias, para las cuales la precisión es primordial. The Associated Press también está explorando el uso de la tecnología como parte de una asociación con OpenAI , que paga para usar parte del archivo de texto de AP para mejorar sus sistemas de IA.
En asociación con los institutos de administración hotelera de la India, el científico informático Ganesh Bagler ha estado trabajando durante años para lograr que los sistemas de IA, incluido un precursor de ChatGPT , inventen recetas para las cocinas del sur de Asia, como versiones novedosas de biryani a base de arroz. Un solo ingrediente «alucinado» podría ser la diferencia entre una comida sabrosa y una no comestible.
Cuando Sam Altman, el CEO de OpenAI , visitó la India en junio, el profesor del Instituto Indraprastha de Tecnología de la Información de Delhi tenía algunas preguntas acertadas.
«Supongo que las alucinaciones en ChatGPT siguen siendo aceptables, pero cuando una receta resulta alucinante, se convierte en un problema grave», dijo Bagler, de pie en un auditorio del campus abarrotado para dirigirse a Altman en la parada de Nueva Delhi de la gira mundial del ejecutivo de tecnología de EE. UU. .
«¿Cuál es tu opinión al respecto?» Bagler finalmente preguntó.
Altman expresó optimismo, si no un compromiso absoluto.
“Creo que llevaremos el problema de las alucinaciones a un lugar mucho, mucho mejor”, dijo Altman. “Creo que nos llevará un año y medio, dos años. Algo como eso. Pero en ese momento no seguiremos hablando de estos. Existe un equilibrio entre la creatividad y la precisión perfecta, y el modelo deberá aprender cuándo desea uno u otro».
Pero para algunos expertos que han estudiado la tecnología, como el lingüista Bender de la Universidad de Washington, esas mejoras no serán suficientes.
Bender describe un modelo de lenguaje como un sistema para «modelar la probabilidad de diferentes cadenas de formas de palabras», dados algunos datos escritos sobre los que ha sido entrenado.
Así es como los correctores ortográficos pueden detectar cuando has escrito una palabra incorrecta. También ayuda a potenciar los servicios de transcripción y traducción automática, «suavizando la salida para que se parezca más al texto típico en el idioma de destino», dijo Bender. Muchas personas confían en una versión de esta tecnología cada vez que usan la función «autocompletar» al redactar mensajes de texto o correos electrónicos.
La última cosecha de chatbots como ChatGPT, Claude 2 o Bard de Google intentan llevar eso al siguiente nivel, generando pasajes de texto completamente nuevos, pero Bender dijo que todavía seleccionan repetidamente la siguiente palabra más plausible en una cadena.
Cuando se utilizan para generar texto, los modelos de lenguaje “están diseñados para inventar cosas. Eso es todo lo que hacen”, dijo Bender. Son buenos para imitar formas de escritura, como contratos legales, guiones de televisión o sonetos.
“Pero dado que solo inventan cosas, cuando el texto que han sacado se puede interpretar como algo que consideramos correcto, eso es por casualidad”, dijo Bender. «Incluso si se pueden ajustar para que tengan razón la mayor parte del tiempo, seguirán teniendo modos de falla, y es probable que las fallas se den en los casos en los que es más difícil que una persona que lee el texto se dé cuenta, porque son más oscuros».
Esos errores no son un gran problema para las empresas de marketing que han estado recurriendo a Jasper AI en busca de ayuda para escribir presentaciones, dijo el presidente de la compañía, Shane Orlick.
“Las alucinaciones son en realidad una ventaja adicional”, dijo Orlick. «Tenemos clientes todo el tiempo que nos dicen cómo se les ocurrieron las ideas: cómo Jasper creó tomas de historias o ángulos que nunca se les habría ocurrido a ellos mismos».
La startup con sede en Texas trabaja con socios como OpenAI, Anthropic, Google o Meta, matriz de Facebook, para ofrecer a sus clientes una mezcla heterogénea de modelos de lenguaje de IA adaptados a sus necesidades. Para alguien preocupado por la precisión, podría ofrecer el modelo de Anthropic, mientras que alguien preocupado por la seguridad de sus datos de origen patentados podría obtener un modelo diferente, dijo Orlick.
Orlick dijo que sabe que las alucinaciones no se solucionarán fácilmente. Cuenta con empresas como Google, que, según él, debe tener un «estándar realmente alto de contenido fáctico» para su motor de búsqueda, para poner mucha energía y recursos en las soluciones.
“Creo que tienen que solucionar este problema”, dijo Orlick. “Tienen que abordar esto. Así que no sé si alguna vez será perfecto, pero probablemente seguirá mejorando con el tiempo”.
Los tecnooptimistas, incluido el cofundador de Microsoft, Bill Gates, han pronosticado una perspectiva optimista.
“Soy optimista de que, con el tiempo, se puede enseñar a los modelos de IA a distinguir la realidad de la ficción”, dijo Gates en una publicación de blog de julio que detalla sus pensamientos sobre los riesgos sociales de la IA.
Citó un artículo de 2022 de OpenAI como ejemplo de “trabajo prometedor en este frente”. Más recientemente, investigadores del Instituto Federal Suizo de Tecnología en Zúrich dijeron que desarrollaron un método para detectar parte del contenido alucinado de ChatGPT, pero no todo, y eliminarlo automáticamente.
Pero incluso Altman, ya que comercializa los productos para una variedad de usos, no cuenta con que los modelos sean veraces cuando busca información.
«Probablemente confío menos que nadie en la Tierra en las respuestas que salen de ChatGPT», dijo Altman a la multitud en la universidad de Bagler, entre risas.
Fuente: https://apnews.com/article/artificial-intelligence-hallucination-chatbots-chatgpt-falsehoods-ac4672c5b06e6f91050aa46ee731bcf4