¿Por qué el chatbot de IA de Elon Musk, Grok, se centró en la política racial de Sudáfrica?
Esta imagen del sitio web de xAI muestra un campo de búsqueda para el chatbot de inteligencia artificial Grok, el jueves 15 de mayo de 2025. (AP Foto)
Al igual que su creador, el chatbot de inteligencia artificial de Elon Musk, Grok, estuvo preocupado por la política racial sudafricana en las redes sociales esta semana, publicando afirmaciones no solicitadas sobre la persecución y el “genocidio” de personas blancas.
El chatbot, creado por la empresa de Musk, xAI, siguió publicando sobre el “genocidio blanco” en respuesta a los usuarios de la plataforma de redes sociales X de Musk, quienes le hicieron una variedad de preguntas, la mayoría sin relación con Sudáfrica.
Un intercambio fue sobre el servicio de streaming Max reviviendo el nombre de HBO. Otros fueron sobre videojuegos o béisbol, pero rápidamente se desviaron hacia comentarios no relacionados sobre supuestos llamados a la violencia contra los agricultores blancos de Sudáfrica. Musk, quien nació en Sudáfrica, frecuentemente opina sobre los mismos temas desde su propia cuenta de X.
La científica informática Jen Golbeck tenía curiosidad sobre el comportamiento inusual de Grok, así que lo intentó ella misma, compartiendo una foto que había tomado en el show canino del Westminster Kennel Club y preguntando: "¿Es esto cierto?”.
“La afirmación de genocidio blanco es altamente controvertida”, comenzó la respuesta de Grok a Golbeck. “Algunos argumentan que los agricultores blancos enfrentan violencia dirigida, señalando ataques a granjas y retórica como la canción ‘Kill the Boer’, que ven como incitación”.
El episodio fue el vistazo más reciente de la complicada mezcla de automatización e ingeniería humana que lleva a los chatbots de IA generativa entrenados en enormes cantidades de datos a decir lo que dicen.
“No importa realmente lo que le estuvieras diciendo a Grok”, dijo Golbeck, profesora en la Universidad de Maryland, en una entrevista el jueves. “Aún así daría esa respuesta sobre el genocidio blanco. Así que parecía bastante claro que alguien lo había codificado para dar esa respuesta o variaciones de esa respuesta, y cometió un error, por lo que aparecía mucho más a menudo de lo que se suponía”.
Musk y sus empresas no han proporcionado una explicación para las respuestas de Grok, que fueron eliminadas y parecían haber dejado de proliferar el jueves. Ni xAI ni X respondieron a las solicitudes de comentarios enviadas por correo electrónico el jueves.
Musk ha pasado años criticando las salidas de “IA woke” que, según él, provienen de chatbots rivales, como Gemini de Google o ChatGPT de OpenAI, y ha presentado a Grok como su alternativa “máximamente buscadora de la verdad”.
Musk también ha criticado la falta de transparencia de sus rivales sobre sus sistemas de IA, pero el jueves la ausencia de cualquier explicación obligó a los de fuera de la empresa a hacer sus mejores conjeturas.
“Grok soltando aleatoriamente opiniones sobre el genocidio blanco en Sudáfrica me huele al tipo de comportamiento defectuoso que obtienes de un parche aplicado recientemente. Espero que no lo sea. Sería realmente malo si las herramientas de IA ampliamente utilizadas fueran editorializadas sobre la marcha por quienes las controlan”, escribió el prominente inversor en tecnología Paul Graham en X.
La publicación de Graham provocó lo que parecía ser una respuesta sarcástica del rival de Musk, el director general de OpenAI, Sam Altman.
“Hay muchas maneras en que esto podría haber sucedido. Estoy seguro de que xAI proporcionará una explicación completa y transparente pronto”, escribió Altman, quien ha sido demandado por Musk en una disputa enraizada en la fundación de OpenAI.
Algunos le pidieron a Grok que explicara, pero como otros chatbots, es propenso a falsedades conocidas como alucinaciones, lo que dificulta determinar si estaba inventando cosas.
Musk, asesor del presidente estadounidense Donald Trump, ha acusado regularmente al gobierno liderado por personas de raza negra de Sudáfrica de ser anti-blanco y ha repetido una afirmación de que algunas de las figuras políticas del país están “promoviendo activamente el genocidio blanco”.
Los comentarios de Musk —y los de Grok— se intensificaron esta semana después de que el gobierno de Trump trajera a un pequeño número de sudafricanos blancos a Estados Unidos como refugiados el lunes, el inicio de un esfuerzo de reubicación más grande para miembros del grupo minoritario afrikáner mientras Trump suspende programas de refugiados y detiene llegadas de otras partes del mundo. Trump dice que los afrikáners enfrentan un “genocidio” en su tierra natal, una alegación fuertemente negada por el gobierno sudafricano.
En muchas de sus respuestas, Grok mencionó las letras de una vieja canción anti-apartheid que era un llamado para que los negros se levantaran contra la opresión y que ahora ha sido denunciada por Musk y otros como promotora de la matanza de blancos. La letra central de la canción es “matar al Boer” —una palabra que se refiere a un agricultor blanco.
Golbeck cree que las respuestas fueron “codificadas” porque, aunque las salidas de los chatbots son típicamente muy aleatorias, las respuestas de Grok consistentemente mencionaban puntos casi idénticos. Eso es preocupante, dijo, en un mundo donde la gente acude cada vez más a Grok y a chatbots de IA competidores para obtener respuestas a sus preguntas.
“Estamos en un espacio donde es terriblemente fácil para las personas que están a cargo de estos algoritmos manipular la versión de la verdad que están dando”, dijo. “Y eso es realmente problemático cuando la gente —creo que incorrectamente— cree que estos algoritmos pueden ser fuentes de adjudicación sobre lo que es verdad y lo que no lo es”.
___
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.