El mismo mes en que Grok optó por una segundo holocausto Tras vaporizar el cerebro de Elon Musk, el chatbot de IA vuelve a estropearse. Luego del tiroteo en Bondi Beach en Australia durante un festival para marcar el inicio de Hanukkah, Grok está respondiendo a las solicitudes de los usuarios con información inexacta o completamente ajena, como lo descubrió por primera vez Gizmodo.
La confusión de Grok parece ser más evidente con un vídeo viral que muestra a un transeúnte de 43 años, identificado como Ahmed al-Ahmedarrebatándole un arma a un atacante durante el incidente, que ha dejado al menos 16 muertos, según el último informe. noticias informes. Las respuestas de Grok lo demuestran repetidamente identificar erróneamente el individuo quien detuvo a uno de los pistoleros. En otros casos, Grok responde a la misma imagen sobre el tiroteo en Bondi Beach con detalles irrelevantes sobre acusaciones de tiroteos contra civiles selectivos en Palestina.
El últimas respuestas todavía muestra la confusión de Grok con el tiroteo en Bondi Beach, incluso brindando información sobre el incidente a solicitudes no relacionadas o mezclarlo con el tiroteo en la Universidad de Brown en Rhode Island. xAI, el desarrollador de Grok, aún no ha comentado oficialmente qué está pasando con su chatbot de IA. Sin embargo, no es la primera vez que Grok se descarrila, considerando que se autodenominó MechaHitler a principios de este año.




