“ChatGPT es basura” es el título de un paper científico real: esto es lo que dice
![App de ChatGPT en iPhone](https://www.adslzone.net/app/uploads-adslzone.net/2024/06/chatgpt-1.jpg)
Un nuevo paper académico de tres científicos escoceses trata de explotar la burbuja de hype sostenida alrededor de las populares inteligencias artificiales conversacionales, asegurando que, la mayor parte del tiempo, no son capaces de ofrecer algo distinto a «tonterías».
El directo y desacomplejado título de este estudio científico le ha facilitado ganar algo de popularidad desde que se publicase el pasado 8 de junio en la revista Ethics and Information Technology. «ChatGPT is bullshit» es un paper escrito por tres académicos escoceses de la Universidad de Glasgow, en el que desmitifican el fenómeno conocido como «alucinaciones» (respuestas incorrectas de la inteligencia artificial), y argumentan que estos outputs surrealistas merecen ser llamados «tonterías». Porque tal como indican los investigadores, las respuestas falsas no son más que un comportamiento normal en unos modelos que no saben distinguir entre verdad y mentira.
Respecto a las alucinaciones, «argumentamos que estas falsedades, y la actividad general de los grandes modelos lingüísticos, se entienden mejor como una tontería en el sentido explorado por Frankfurt (On Bullshit, Princeton, 2005): los modelos son en gran medida indiferentes a la verdad de sus resultados», recoge el documento.
Así, frente al relato utópico y optimista sobre la supuesta revolución que suponen estos chatbots, los investigadores sugieren que este entusiasmo o hype generalizado no responde a un producto de calidad: «Debido a que estos programas por sí mismos no pueden preocuparse por la verdad, y debido a que están diseñados para producir textos que parezcan aptos para la verdad sin ninguna preocupación real por la verdad, parece apropiado llamar a sus resultados una tontería», se lee en el paper.
Y es que, según argumentan, usar términos como «alucinaciones» puede hacer que el público general adquiera una idea equivocada sobre las capacidades de estas herramientas. Porque hablar de alucinación ya puede implicar dar por sentado que una IA es de alguna manera consciente o tendiente hacia la verdad, y que miente cuando no la encuentra. También las humaniza en cierto modo, dotando de misticismo a lo que no es más que una respuesta errónea. Ningún chatbot actual tiene ni la menor idea de lo que es verdad o mentira. Por ello, «llamar ‘alucinaciones’ a sus errores no es inofensivo: presta a la confusión de que las máquinas están de alguna manera percibiendo erróneamente, pero aun así están tratando de transmitir algo que creen o han percibido».
Por ello, hablar de alucinación es usar «la metáfora equivocada. Las máquinas no intentan comunicar algo que creen o perciben. Su inexactitud no se debe a una percepción errónea o alucinación. Como hemos señalado, no intentan transmitir ninguna información. Están mintiendo», concluye el estudio.
En redes, el estudio ha generado cientos de comentarios, y algunos usuarios aseguran estar esperando a que, de una vez por todas, se desinfle lo que consideran que es una burbuja creada en torno a este producto tecnológico, que detrás de todo el marketing, oculta unas capacidades bastante decepcionantes.
Las IA, «poco confiables» e «imprácticas»
Todo esto coincide con un reciente artículo publicado por Microsoft, en el que hablan de algunas de las principales características que muestran los chatbots de inteligencia artificial en la actualidad. Hablando sobre los «AI Jailbreaks», que serían algo así como el hackeo a una IA para que deje de aplicar controles de seguridad y diga cosas que no debería decir, Microsoft explica cuáles son algunas de las grandes debilidades de estos chatbots:
- Imaginativas pero a veces poco confiables
- Sugestionables y de mentalidad literal, sin la orientación adecuada
- Persuadibles y potencialmente explotables
- Conocedoras pero poco prácticas para algunos escenarios
Asimismo, desde Microsoft creen que las IA tienden a pecar de exceso de confianza, intentando impresionar al usuario con una apariencia realista pese a no saber si lo que dicen es cierto o no, y a ser muy influenciables tan solo por cómo se elabora una pregunta o prompt.