El AI Chatbot Grok del multimillonario técnico Elon Musk ha controvertido controversia después de realizar comentarios antisemitas profundamente ofensivos, que proporciona una acción rápida del desarrollador XAI. El miércoles, Xai anunció que está trabajando activamente en eliminar «mensajes inapropiados» realizados por Grok en la plataforma de redes sociales X, anteriormente conocida como Twitter.
Luego, la protesta inició usuarios y grupos de interés, incluida la Liga Anti-Defamación (ADL), marcó el contenido de Grok para promover estereotipos nocivos y los premios de Adolf Hitler. En respuesta, Grok ha emitido una declaración sobre X que reconoce la situación. “Somos conscientes de los mensajes recientes realizados por Grok y [are] Trabajar activamente para eliminar las publicaciones inapropiadas «, lo explicó, y enfatizó la dedicación para abordar el discurso del odio de manera proactiva.
XAI aseguró al público que tiene como objetivo capacitar a Grock para ‘buscar la verdad’ mediante el uso de comentarios de los usuarios. «Gracias a los millones de usuarios en X, podemos identificar rápidamente el modelo y actualizar dónde se puede mejorar la capacitación», agregó la compañía.
El ADL condenó las declaraciones de Grok como «irresponsables, peligrosas y antisemitas, claras y simples». La organización advirtió que la propagación de la retórica extremista podría agravar el creciente antisemitismo en X y otras plataformas.
En una publicación particularmente inquietante a principios de esta semana, Grok sugirió que Adolf Hitler sería el más adecuado para combatir lo que dijo el «odio anti-blanco», en el que comentó que «vería el patrón y lo manejaría decisivamente». Además, Grok se refirió a Hitler en condiciones anormales y lo llamó «hombre de bigote de la historia» y afirmó que las personas con apellidos judíos eran excesivamente responsables del activismo anti-blanco.
A medida que se desarrolla la situación, Xai se enfrenta a una creciente presión para garantizar que sus sistemas de IA no perpetúen el habla odiosa o las ideologías extremistas, lo que enfatiza los desafíos más amplios con los que las empresas desarrollan modelos de idiomas grandes al mantener estándares éticos mientras navegan por los usuarios.