Cada cierto tiempo, un tuit se vuelve viral dejando al descubierto algo que muchos parecen olvidar: la inteligencia artificial no es infalible. Esta semana, el protagonista ha sido un experimento tan simple como revelador.
El conocido creador de contenido Fernando del Moral publicó una imagen con siete dedos visibles y le preguntó a ChatGPT (en su versión 5.1) cuántos veía. La respuesta: “diez”.
Otro decidió probar suerte con Grok, la IA integrada en X (antes Twitter), y el resultado fue idéntico. Los algoritmos de la IA detectaron que había diez dedos donde claramente había siete.
Dos modelos distintos, un mismo error, y una lección clara sobre cómo funcionan realmente estas herramientas.
¿Es la IA infalible?
No se trata de un caso aislado. Hace unos meses, una profesora valenciana quiso comprobar hasta qué punto Grok era capaz de analizar una fotografía antigua. La trampa era usar una foto complicada, concretamente, de la posguerra española. Curiosamente, la IA la situó en Estados Unidos, diciendo que pertenecía Walker Evans y fijando incluso el año en que se tomó la foto y los nombres de los retratados. Todo falso, pero dicho con tal seguridad que cualquiera habría podido creerlo.

Cuando la profesora reveló la fuente real, que no era ni más ni menos que un archivo histórico de la Universidad de Málaga, Grok reconoció su error. Sin embargo, al poco tiempo volvió a fallar con la misma imagen, como si no recordara haber sido corregido. ¿Pero no se supone que la IA aprende de nosotros?
Más recientemente, sucedió algo similar, pero con una imagen generada, valga la redundancia, con IA. Un artista creó una imagen falsa de un mercado navideño supuestamente blindado en Europa. La foto se viralizó en X como si fuera real, alimentando debates políticos y generando indignación.
Cuando alguien preguntó a Grok si era auténtica, la IA confirmó que sí, reforzando aún más la confusión. Solo más tarde se descubrió que la escena nunca había existido.
¿Qué nos dice todo esto?
Pues algo en lo que nadie parece querer pararse a pensar, que debemos tener espíritu crítico y no dar por cierto todo lo que leemos solo porque nos encaja. Al final, todos estamos sesgados ideológicamente y buscamos opiniones que refuercen nuestras posturas. Y si este refuerzo viene de una IA, aunque sea erróneo, lo damos por válido porque, básicamente, nos conviene.
Pero no debemos olvidar que aún existen muchos usuarios siguen pensando que una IA “sabe más” que las personas, y toman cada frase como un veredicto definitivo. Hay que ser conscientes de que la inteligencia artificial no interpreta el mundo, lo predice. Su papel es ofrecer una ayuda, una referencia, no una verdad absoluta. Usarla con sentido crítico es tan importante como aprender a desconfiar de lo que parece demasiado convincente.
No des por sentado todo lo que te dice la IA, hay gente que ha llegado a enfermar o ha tenido problemas en viajes por seguir a ciegas las recomendaciones de la Inteligencia Artificial antes que confiar en la opinión de expertos y no queremos que eso te pase a ti.










