martes, 1 abril 2025
28.4 C
Monterrey

“Oye, Grok”: La IA de Elon Musk sacude X con sus respuestas y tensa a los políticos

Últimas Noticias

Karen Fabián

La irrupción de Grok en X –el modelo de inteligencia artificial creado por la empresa de Elon Musk xAI– ha causado furor por las respuestas que el chatbot le ha dado a cientos de usuarios. Sin embargo, expertos consultados por Sputnik advierten sobre su instrumentalización para fines políticos y el impacto ecológico que su uso desmedido genera.

En febrero de este año, Twitter (ahora X) lanzó Grok 3, la versión más avanzada de su herramienta de inteligencia artificial. Calificado por Elon Musk, dueño de la plataforma, como “aterradoramente inteligente”, el chatbot tiene la misión de acompañar a los usuarios en la “búsqueda de la verdad para obtener respuestas sin filtros”.

A partir de ese supuesto, en los últimos días, usuarios de la red social han formulado preguntas de todo tipo al chatbot, a las que este ha respondido de forma puntual, causando revuelo entre los consultantes.

Una de las preguntas que más interacciones generó fue la realizada por el presidente salvadoreño Nayib Bukele, que le pidió a Grok que le dijera, en una palabra, quién es el presidente más popular del mundo.

“Sheinbaum”, respondió la IA, desatando un tsunami de críticas hacia el mandatario, que optó por no retuitear el veredicto de Grok.

Sin embargo, momentos después, Bukele compartió la respuesta que el chatbot le dio a otro usuario, en la que destacó la alta aprobación del jefe de Estado salvadoreño, que supera a la de Claudia Sheinbaum.

¿Cómo nos relacionamos con la IA?

Lo anterior plantea diversas preguntas en torno a la “veracidad” de las respuestas que ofrece Grok, toda vez que da la impresión de que, si el usuario elabora la pregunta “correcta”, el chatbot responderá lo que se espera que diga y, entonces, su respuesta será útil para los fines buscados.

Ernesto Priani Saisó, académico de la Facultad de Filosofía y Letras de la UNAM y fundador de la Red de Humanidades Digitales (RedHD), comenta a Sputnik que “hay una cosa que nos podemos preguntar siempre,en torno a la inteligencia artificial, y es cómo nos vamos a relacionar con ella, con qué tanta frecuencia y con qué finalidad“.

“Es interesante que, por lo menos en este caso, se trate al mismo tiempo de un uso recreativo y político (…). Los usuarios están tratando de ver cómo esta herramienta de inteligencia artificial participa en la conversación en Twitter”, destaca el humanista digital.

Sin embargo, ahonda, no hay que perder de vista que se trata de una inteligencia artificial que responde en función de la pregunta que se le plantea, de manera que siempre hay que tomar sus respuestas como “un juego” entre quien pregunta y la máquina que elabora una respuesta.

Dicho en otras palabras, las respuestas que brinda Grok van a depender mucho de las intenciones del usuario o usuaria, así como de la “manera en que se formula la pregunta y, entonces, hay que ser cauto”.

“No es la verdad, no es ni siquiera una opinión permanente, ni siquiera es nada muy firme, sino que, en realidad, es algo que se produce en la interacción entre el usuario que pregunta y la máquina que responde“, afirma Priani Saisó.

Para el ensayista, narrador y poeta Emmanuel Vizcaya, que ha dedicado los últimos años al estudio de la inteligencia artificial, no hay que perder de vista que, a diferencia de otras inteligencias artificiales, el modelo de Grok está diseñado para responder sin filtros y, de esa manera, brindar respuestas “más incisivas o provocadoras”.

“Eso es importante mencionarlo, para saber que, al menos la programación detrás, sí está hecha para confrontar, es una de sus características”, sostiene el escritor en una charla para este medio.

Así, añade, no sería una sorpresa que la manera en la que los usuarios están interactuando con Grok pueda abrir nuevos caminos para provocarlo y, así, seguir generando interacciones para posicionar ciertas agendas.

“Siento que es un poco grave que se tomen por certeras las aseveraciones de una inteligencia artificial de cualquier tipo, en primera, y en segunda, con las particularidades de Grok, donde han hecho mucho hincapié que trata de ser una inteligencia artificial mucho más provocadora y menos políticamente correcta”, estima Vizcaya.

Al mismo tiempo, abunda el escritor, los modelos más actuales, incluido Grok, utilizan estrategias de recopilación de información de internet que incluye fuentes diversas y “no tienen la capacidad, al menos no todavía, de discernir cuáles fuentes son más confiables que otras”.

“Puedes tener respuestas de un medio, digamos, prestigioso, hasta respuestas que pueden ser a veces dudosas, de Wikipedia y hasta de blogs personales”, sostiene Vizcaya.

Lo anterior, entonces, conlleva riesgos, toda vez que no se puede dar por certera ninguna aseveración sin consultar las fuentes de donde proviene, argumenta el ensayista.

“Yo creo que Grok, si no da la opción de ofrecer una cita que tú puedas cliquear, que tú puedas acceder a ella, es muy probable que por su propia programación, reitero, confrontativa, pueda manipular esa información, vamos a ponerlo entrecomillado, a conveniencia, no porque otros modelos no puedan hacer esto, por supuesto que lo pueden hacer, pero sí puede generarse un sesgo en cuanto a cuánto se filtra y cuánto es simplemente una referencia o una cita a una fuente, vamos a llamarle confiable”, razona Vizcaya.

En ese sentido, Priani Saisó observa que la forma en la que Grok está siendo utilizado para intervenir en la conversación pública es problemática, ya que le abre la puerta para opinar a la inteligencia artificial que, a su vez, es vista por los usuarios como un ser infalible y súper veraz.

“Yo te diría, en principio, que es un juego de ingenio que (…), en el contexto de Twitter, han encontrado que funcione políticamente y que, entonces, [permite que] podamos tomar las respuestas de la máquina como intervenciones públicas, a favor en contra, de ciertas posiciones políticas”, analiza el filósofo.

“Eso es lo que tiene un aspecto, vamos a llamarlo inquietante nada más, porque es divertido, pero es inquietante, porque le abres la puerta a la máquina para intervenir en la agenda pública y en la discusión pública”, continúa.

Para desarrollar su argumento, Priani recordó la pregunta de Bukele que, pese a no haber resultado como esperaba el jefe de Estado salvadoreño, sí se convirtió en un tema de discusión que incluso ocupó titulares de prensa.

“[Eso] habla de cómo entra en la discusión pública y cómo otros lo están usando justamente para eso, marcar sus propias agendas, hacer que refuerce sus propias ideas, etcétera. Yo creo que eso es muy interesante. Es demasiado pronto para tener un diagnóstico completo de a dónde nos va a llevar esto, pero quiere decir que ahora tenemos, además de agentes humanos interviniendo en la conversación pública, tenemos una inteligencia artificial interviniendo en la conversación pública como agente”, reflexiona Priani.

Tomar todo con medida

Por todo lo anterior, los expertos consideran que no hay que perder de vista que se trata de una inteligencia artificial que responde en función de la pregunta que se le plantea, así como la forma en la que se le cuestiona.

Asimismo, recomiendan “no pasar por alto las habilidades humanas de discernir qué cosa puede ser verídica y qué cosa puede ser una manipulación de un sistema inconsciente”.

“La responsabilidad sigue siendo la misma en cuanto a verificar siempre la validez de las fuentes. Lo que ha hecho la inteligencia artificial, este modelo y otros, ha sido que han optimizado el tiempo de búsqueda y esto nos puede volver perezosos al momento de ya nada más quedarnos con la primer respuesta que nos otorgan y pasamos por alto lo más fundamental, que tiene que ver con la corroboración del dato”, refiere Vizcaya.

Si bien el estudioso de estos modelos admite que la verificación ya era necesaria antes de la llegada de la IA, menciona que el riesgo actual de delegar la labor de búsqueda y filtrado a un algoritmo es que este “reproduce muchísimos sesgos, no solo políticos, sino también sociales, culturales”.

“Yo diría que se vea a la inteligencia artificial como una herramienta que complementa otras acciones o necesidades humanas, como la búsqueda de información, la optimización del tiempo y que no se vea como un juguete –que también lo es–, la gente juega mucho con la inteligencia artificial, pero también este tipo de uso es lo que genera un grave problema ecológico”, reflexiona Vizcaya.

De acuerdo con un estudio de la Universidad de California, entrenar un modelo de predicción de lenguaje como GPT en los centros de datos de Microsoft puede consumir 700.000 litros de agua dulce, especialmente a través de la evaporación en torres de enfriamiento. La cifra no incluye el agua que se utiliza en la generación de electricidad.

El experto resalta que las consecuencias del uso desmedido y ocioso de los modelos de inteligencia artificial, especialmente en la actualidad, cuando “todavía no resuelven la optimización de sus recursos de ejecución”, son un motivo para que los usuarios actúen con cautela a la hora de usar la IA con fines de entretenimiento.

Fuente: https://noticiaslatam.lat/

Foto: Tomada de https://x.com/nayibbukele/media

eitmedia.mx