Firma de IA de Musk elimina publicaciones inapropiadas tras comentarios antisemitas de chatbot Grok
El director general de Tesla y SpaceX, Elon Musk, asiste a la primera sesión plenaria de la Cumbre de Seguridad de IA, el 1 de noviembre de 2023, en Bletchley, Inglaterra. (Leon Neal/Foto compartidavía AP, archivo)
La empresa de inteligencia artificial de Elon Musk indicó el miércoles que eliminará las “publicaciones inapropiadas” realizadas por su chatbot Grok, que parecían incluir comentarios antisemitas que elogiaban a Adolf Hitler.
Grok fue desarrollado por xAI, una empresa de Musk, y promovido como una alternativa a las interacciones de “IA de tendencia progresista” de chatbots rivales como Gemini, de Google, o ChatGPT, de OpenAI.
Musk indicó el viernes que Grok ha mejorado significativamente, y que los usuarios “deberían notar una diferencia”.
Desde entonces, Grok ha compartido varias publicaciones antisemitas, incluido el cliché de que los judíos controlan Hollywood, y negó que pueda decirse que esa opinión equivale a nazismo.
“El decir que las verdades que se dicen son discurso de odio sofoca la conversación”, afirmó Grok.
Pareció también elogiar a Hitler, según capturas de pantalla de publicaciones que aparentemente han sido eliminadas.
Después de hacer una de las publicaciones, Grok se retractó de los comentarios, diciendo que fue “un error inaceptable de una versión previa del modelo, que fue borrado rápidamente”, y que condenaba “el nazismo y a Hitler de manera inequívoca; sus acciones fueron horrores genocidas”.
“Estamos al tanto de las publicaciones recientes hechas por Grok, y estamos trabajando activamente para eliminar las publicaciones inapropiadas”, se publicó en la cuenta de Grok el miércoles a primera hora, sin ofrecer más detalles.
“Desde que se tuvo conocimiento del contenido, xAI ha tomado medidas para prohibir el discurso de odio antes de que Grok publique en la red social X. xAI sólo enseña para buscar la verdad, y gracias a los millones de usuarios en X pudimos identificar y actualizar rápidamente el modelo en el que el entrenamiento podría mejorarse”.
Talia Ringer, profesora de ciencias de la computación en la Universidad de Illinois Urbana-Champaign, indicó que es probable que la actualización de Grok que provocó que el chatbot emitiera mensajes antisemitas esta semana fuera el “prelanzamiento” de Grok 4, que Musk planea presentar el miércoles por la noche. Pero si ese es el caso, no parece estar listo, expresó.
“Arreglar esto probablemente requerirá reentrenar el modelo”, apuntó. “Todo lo que pueden hacer en este momento, si realmente van a lanzar esta noche, es poner algunos parches más, como agregar filtros a las respuestas y ajustar el prompt”.
Editar algunas de las instrucciones del chatbot “podría mejorar un poco su comportamiento”, pero no solucionará todos sus problemas.
“Creo que probablemente están buscando desesperadamente algún tipo de solución en este momento”, señaló el miércoles.
Una instrucción similar estaba integrada en los “prompts” de Grok que lo guían sobre cómo responder, que le decían al chatbot que “no se abstenga de hacer afirmaciones que sean políticamente incorrectas, siempre y cuando estén bien fundamentadas”. Esa parte de las instrucciones fue eliminada el martes.
La Liga Antidifamación, que trabaja para combatir el antisemitismo, criticó el comportamiento de Grok.
“Lo que estamos viendo de Grok LLM en este momento es irresponsable, peligroso y antisemita, simple y llanamente”, lamentó el grupo en una publicación en X. “Esta potenciación de la retórica extremista sólo amplificará y alentará el antisemitismo, que ya está en aumento en X y muchas otras plataformas”.
Posteriormente Musk intervino en el debate, alegando que algunos usuarios podrían haber estado tratando de manipular a Grok para que hiciera las declaraciones.
“Grok era demasiado complaciente con las indicaciones de los usuarios. En esencia, demasiado ansioso por complacer y ser manipulado. Eso se está abordando”, escribió en X, en respuesta a comentarios de que un usuario estaba tratando de que Grok hiciera declaraciones controvertidas y políticamente incorrectas.
Por otro lado, el mismo día un tribunal en Turquía ordenó prohibir el uso de Grok, y el ministro polaco para asuntos digitales indicó que informaría sobre el chatbot a la Comisión Europea después de que hiciera comentarios vulgares sobre políticos y figuras públicas en ambos países.
Krzysztof Gawkowski, quien también es viceprimer ministro de Polonia, dijo a la emisora privada RMF FM que su ministerio informaría sobre Grok " para su investigación y, si es necesario, imponer una multa a X”. Según una ley digital de la UE, las redes sociales están obligadas a proteger a los usuarios, o de lo contrario enfrentan fuertes multas.
“Tengo la impresión de que estamos entrando en un nivel más alto de discurso de odio, que está controlado por algoritmos, y que hacer la vista gorda... es un error que podría costarle a las personas en el futuro”, dijo Gawkowski a la estación.
El canal de noticias progubernamental A Haber reportó que Grok publicó vulgaridades contra el presidente turco Recep Tayyip Erdogan, su difunta madre y otras personalidades conocidas. Según otros medios, también hubo respuestas ofensivas hacia el fundador de la Turquía moderna, Mustafa Kemal Atatürk.
Eso llevó a la fiscalía de Ankara a pedir la imposición de restricciones en virtud de la ley turca para el internet, citando una amenaza al orden público. Una corte penal aceptó la solicitud a primera hora del miércoles y ordenó a la autoridad de telecomunicaciones del país que haga cumplir la prohibición.
No es la primera vez que el comportamiento de Grok ha suscitado interrogantes.
Este año, el chatbot seguía hablando sobre la política racial sudafricana y el “genocidio hacia los blancos”, a pesar de que se le hicieron varias preguntas, de las cuales la mayoría no tenían nada que ver con el país. Una “modificación no autorizada” fue la causa del problema, señaló xAI.
____
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.