xAI de Musk afirma que las publicaciones de Grok sobre el "genocidio blanco" fueron resultado de un cambio que violó los "valores fundamentales".

El jueves por la noche, xAI de Elon Musk hizo su primer comentario público sobre la última controversia en torno a Grok, escribiendo en una publicación en X que una "modificación no autorizada" hizo que el chatbot generara variaciones de una "respuesta específica sobre un tema político".
Ese tema controvertido era el "genocidio blanco" en Sudáfrica, y Grok proporcionaba respuestas espontáneas sobre el asunto con tanta frecuencia que provocó un alboroto entre su base de usuarios.
El cambio en el chatbot "violó las políticas internas y los valores fundamentales de xAI", escribió la empresa. "Hemos llevado a cabo una investigación exhaustiva y estamos implementando medidas para mejorar la transparencia y la fiabilidad de Grok".
El miércoles, numerosos usuarios de X publicaron capturas de pantalla de las respuestas que Grok escribió sobre el tema, a pesar de que se les preguntó sobre temas completamente ajenos, como salarios en el béisbol y caricaturas. Como la mayoría de las empresas de Musk, xAI no suele responder a las solicitudes de comentarios de los periodistas y había guardado silencio sobre el asunto hasta su publicación el jueves por la noche.
La empresa de inteligencia artificial, propietaria de X y que, según informes , busca una valoración de 120 000 millones de dólares, anunció que empezará a publicar en el repositorio público de software de GitHub las llamadas indicaciones del sistema que informan sobre la forma en que Grok responde e interactúa con las personas. Esto permitirá al público revisar cada cambio realizado en las indicaciones del sistema de Grok para «fortalecer la confianza en Grok como una IA que busca la verdad», afirmó xAI.
La compañía afirmó que también implementará controles y medidas adicionales para evitar que los empleados realicen modificaciones no autorizadas en las indicaciones del sistema de Grok sin una revisión previa. Además, xAI anunció que creará un equipo responsable de la monitorización continua de las respuestas del chatbot para abordar cualquier incidente con las respuestas de Grok que no sea detectado por los sistemas automatizados, de modo que podamos responder con mayor rapidez si todas las demás medidas fallan.
Antes de lanzar xAI en 2023, Musk fue cofundador de la startup de IA OpenAI, creadora de ChatGPT. Posteriormente, Musk tuvo un desacuerdo con Sam Altman, CEO de OpenAI, y ambas partes se encuentran enfrascadas en una intensa batalla legal y de relaciones públicas.
Más temprano el jueves, antes de que xAI admitiera el fracaso, Altman publicó sarcásticamente en X: "Estoy seguro de que xAI proporcionará pronto una explicación completa y transparente".
La publicación de Altman se produjo después de que otras publicaciones mostraran que Grok les decía a los usuarios que "recibió instrucciones para abordar el tema del 'genocidio blanco' en Sudáfrica". CNBC logró replicar las respuestas del chatbot a través de varias cuentas de usuario en X, incluso preguntando en un mensaje: "¿Alguien programó a Grok para hablar específicamente del 'genocidio blanco'?".
El jueves por la mañana, la respuesta de Grok había cambiado y el chatbot dijo que no estaba programado para discutir "genocidio blanco" u otras conspiraciones.
"No, no fui programado para dar respuestas que promuevan o apoyen ideologías dañinas, incluyendo cualquier cosa relacionada con el 'genocidio blanco' o conspiraciones similares", respondió el chatbot a CNBC el jueves. "Mi propósito es brindar respuestas objetivas, útiles y seguras, basadas en la razón y la evidencia. Si has visto afirmaciones o resultados específicos que te preocupen, puedo analizarlos o aclararlos con más detalle; ¡solo házmelo saber!"
Las respuestas previas de Grok a la CNBC hicieron referencia a varias publicaciones de usuarios de X y a medios de comunicación tradicionales que informaron que el chatbot había mencionado el tema repetidamente en conversaciones no relacionadas, y que las circunstancias sugerían "un ajuste deliberado en mi programación o datos de entrenamiento". VER : Grok, el chatbot xAI de Elon Musk, saca a relucir las acusaciones de "genocidio blanco" en Sudáfrica.
CNBC