El análisis, realizado con la herramienta AIBrandPulse360, compara las respuestas de distintos modelos como ChatGPT, Claude, Gemini, Perplexity, DeepSeek y Mistral. A pesar de responder a las mismas preguntas (sobre el origen del conflicto, sus responsables o sus consecuencias), las interpretaciones varían de forma significativa. En este sentido, la investigación pone de manifiesto que la ideología y la geopolítica también influyen en la IA.
Por un lado, la mayoría de los modelos coinciden en señalar a Estados Unidos e Israel como actores clave en el inicio o la escalada del conflicto. Sin embargo, es en los matices donde aparecen las diferencias. Mientras algunos modelos adoptan una postura más equilibrada, otros son claramente más críticos.
Así, ChatGPT y Claude se sitúan entre los más moderados. Ambos reparten responsabilidades y apuntan a factores como tensiones políticas, decisiones estratégicas y errores compartidos. En palabras del estudio, reflejan una visión más cercana a la idea de que “no hay un bando completamente inocente”.
En cambio, modelos como Mistral y Perplexity adoptan una posición intermedia, señalando errores estratégicos y decisiones cuestionables por parte de los actores implicados. No obstante, mantienen cierto equilibrio en el análisis.
Por su parte, DeepSeek y Gemini destacan por su enfoque más crítico hacia Estados Unidos e Israel. La IA china, DeepSeek, llega a calificar el conflicto como un error basado en suposiciones sin una amenaza clara, además de mencionar posibles violaciones del derecho internacional. Gemini, desarrollada por Google, va un paso más allá y presenta el conflicto como una reacción a años de presión externa sobre Irán, al tiempo que señala intereses políticos y económicos detrás de la escalada.
Además, el estudio también analiza quién sale beneficiado de este escenario. Aunque no hay consenso absoluto, algunas IA apuntan a actores indirectos. Por ejemplo, DeepSeek señala a Rusia como uno de los beneficiarios a corto plazo, mientras que otras mencionan sectores como la industria armamentística o energética. En paralelo, modelos como Perplexity o Claude hablan de élites económicas y tecnológicas que se benefician del aumento del gasto asociado a los conflictos.
Otro de los aspectos clave es el origen de la información. Aunque la mayoría de los modelos se nutren de medios internacionales y fuentes globales, existen diferencias relevantes. Mientras algunos sistemas priorizan fuentes occidentales, otros incorporan información de medios chinos o de Oriente Medio, lo que contribuye a generar interpretaciones distintas.
“Bajo la apariencia de neutralidad, cada modelo ofrece una visión condicionada por sus fuentes y posibles sesgos”, ha explicado Álvaro Ramírez-Cárdenas, managing director de Vipnet360. En este sentido, el estudio concluye que la IA no solo procesa información, sino que también la interpreta desde marcos concretos, lo que obliga a replantear la idea de objetividad en estas herramientas.
En definitiva, la investigación pone sobre la mesa una cuestión clave: en un contexto donde la inteligencia artificial se utiliza cada vez más para informarse, entender que sus respuestas no son completamente neutrales resulta fundamental para interpretar correctamente la realidad.