
Grok, el chatbot de inteligencia artificial de Elon Musk, vuelve a fallar.
Esta vez, entre otros problemas, el chatbot arroja información errónea sobre el tiroteo de Bondi Beach, en el que murieron al menos once personas en un Jánuca reunión.
Uno de los agresores finalmente fue desarmado por un transeúnte, identificado como Ahmed al Ahmed, de 43 años. El vídeo de la interacción ha sido ampliamente compartido en las redes sociales y muchos elogian el heroísmo del hombre. Excepto aquellos que han aprovechado la oportunidad para explotar la tragedia y difundir la islamofobia, principalmente negando la validez de los informes que identifican al espectador.
Grok no ayuda a mejorar la situación. El chatbot parece estar fallando, al menos a partir del domingo por la mañana, respondiendo a las consultas de los usuarios con respuestas irrelevantes o, en ocasiones, completamente incorrectas.
En respuesta a un usuario que le preguntó a Grok la historia detrás del vídeo que muestra a Al Ahmed abordando al tirador, la IA reclamado «Este parece ser un viejo vídeo viral de un hombre trepando a una palmera en un estacionamiento, posiblemente para podarla, lo que provocó que una rama cayera y dañara un automóvil estacionado. Las búsquedas entre fuentes no muestran ubicación, fecha o lesiones verificadas. Puede ser una farsa; la autenticidad es incierta».
en otro instanciaGrok afirmó que la fotografía que mostraba a Al Ahmed herido era de un rehén israelí tomado por Hamás el 7 de octubre.
En respuesta a la pregunta de otro usuario, Grok cuestionó una vez más la autenticidad del enfrentamiento de al Ahmed, justo después de un comentario irrelevante. párrafo sobre si el ejército israelí estaba atacando deliberadamente a civiles en Gaza.
En otro caso, Grok descrito un video claramente marcado en el tweet para mostrar que el tiroteo entre los agresores y la policía en Sydney se debe al ciclón tropical Alfred, que devastó Australia a principios de este año. Aunque en este caso, el usuario redobló la respuesta para pedirle a Grok que reevaluara, lo que provocó que el chatbot se diera cuenta de su error.
Más allá de simplemente identificar erróneamente información, Grok parece estar realmente confundido. Un usuario fue servido Redactó un resumen del tiroteo en Bondi y sus consecuencias en respuesta a una pregunta sobre la empresa de tecnología Oracle. También parece ser confuso información sobre el tiroteo en Bondi y el tiroteo en la Universidad de Brown que tuvieron lugar sólo unas horas antes del ataque en Australia.
El problema también se extiende más allá del tiroteo en Bondi. Durante toda la mañana del domingo, Grok ha identificado erróneamente futbolistas famososdio información sobre el uso de acetaminofén durante el embarazo cuando se le preguntó sobre la píldora abortiva mifepristona, o habló sobre el Proyecto 2025 y las probabilidades de que Kamala Harris se postule nuevamente para la presidencia cuando se le pidió que verificara una afirmación completamente separada sobre una iniciativa británica de aplicación de la ley.
No está claro qué está causando el problema. Gizmodo se acercó al desarrollador de Grok, xAI, para solicitar comentarios, pero solo respondieron con la habitual respuesta automática: «Legacy Media Lies».
Tampoco es la primera vez que Grok pierde el control de la realidad. El chatbot ha dado bastantes respuestas cuestionables este año, desde un “modificación no autorizada” eso hizo que respondiera a cada consulta con teorías de conspiración sobre “genocidio blanco” en Sudáfrica a decir que sería mejor matar toda la población judía del mundo que vaporizar la mente de Musk.




