El Observatorio de ideas

Gráfico que muestra la clasificación de modelos OpenAI en función de su benchmark SimpleQA
Foto del autor

Mentemergente

Fundamentos de Inteligencia Artificial

#2 El problema de las alucinaciones

Seguramente has leído algún artículo y te resulta familiar la palabra anglosajona “hallucinations”, que hace referencia a las alucinaciones que tienen todos los grandes modelos lingüísticos (LLMs). Las alucinaciones hacen referencia a la información incoherente que genera textualmente el modelo, aunque pueda parecer realista o gramaticalmente correcto, el texto es totalmente ficticio o inexacto.

Prueba matemática que hicieron a los modelos o1-mini y Llama3-8B
Foto del autor

Mentemergente

Fundamentos de Inteligencia Artificial

#1 Razonamiento de los LLMs

El razonamiento de los grandes modelos lingüísticos (LLMs) es un debate interesante. Cuando OpenAI publicó GPT-4o (omni), escribieron “que puede razonar a través del audio, vision y texto en tiempo real”. Hace poco publicaron el modelo GPT-o1 y afirmaban que realizaba “razonamientos complejos”.

error: ¡No está permitido copiar el contenido, porque está protegido!