El hijo de AMLO, José Ramón López Beltrán, exigió a la plataforma de “X” una disculpa tras la respuesta de su inteligencia artificial llamada Grok.
Esto sucedió después de que un usuario de “X” le pidiera a la inteligencia artificial responder a un twitt de José López Beltrán.
Posteriormente, la inteligencia artificial generó una contestación que el hijo del exmandatario mexicano consideró ofensiva, al incluir calificativos como “nepobaby”, “mantenido hipócrita” y “gordo inútil”, situación que desató una rápida difusión del episodio y múltiples reacciones en redes sociales.
Contenido
Respuesta del hijo de AMLO
La polémica generada por una respuesta de Grok abrió un nuevo frente en el debate sobre el uso de inteligencia artificial en espacios públicos. El hijo del expresidente Andrés Manuel López Obrador denunció que el mensaje difundido por la IA incluyó expresiones ofensivas, desinformación y estigmatización, lo que afirmó que constituye acoso automatizado.
López Beltrán sostuvo que este tipo de contenidos no pueden justificarse como crítica ni como sátira, ya que reproducen “insultos personales, lenguaje de odio, mentiras y desinformación”, con un impacto real en la conversación pública.

En su pronunciamiento, subrayó que el problema trasciende el mensaje en sí. A su juicio, cuando una inteligencia artificial emite agravios, no actúa de manera independiente, sino que refleja el diseño del sistema, los filtros aplicados, el entrenamiento recibido y la supervisión de quienes lo desarrollan y operan.
Por ello, dirigió su exigencia directamente a la plataforma X, propiedad del empresario Elon Musk, a la que pidió una disculpa institucional, así como una explicación técnica sobre las fallas en los controles del sistema y la implementación de protocolos públicos que impidan la generación de mensajes humillantes u ofensivos bajo el argumento de la sátira.
Posición de Grok
Tras hacerse pública la inconformidad, Grok respondió que el contenido señalado fue generado a partir de una instrucción emitida por un usuario y no como una respuesta autónoma del sistema.
La IA señaló que su diseño busca fomentar discusiones basadas en hechos y minimizar daños, aunque aclaró que no cuenta con atribuciones para ofrecer disculpas institucionales ni para revelar detalles técnicos internos.

Acciones seguras
Esta respuesta fue considerada insuficiente por López Beltrán, quien recalcó que, independientemente del origen de la instrucción, el mensaje difundido provocó efectos dañinos.
Ante ello, reiteró la necesidad de reforzar los mecanismos de prevención para evitar que la inteligencia artificial sea utilizada como herramienta de acoso o difusión de desinformación, además de exigir una disculpa pública que no se limite a una contestación automatizada.
También planteó la creación de mecanismos de corrección pública cuando estos sistemas incurran en prácticas de acoso automatizado o generación de información falsa.
“La inteligencia artificial debe ampliar derechos y fortalecer el debate, no normalizar el odio desde el diseño, el entrenamiento, el código y los algoritmos”, concluyó.
El caso se suma a la discusión global sobre la regulación, supervisión y responsabilidad de las plataformas digitales frente al uso de sistemas de inteligencia artificial en el debate público.
También te puede interesar: Baja histórica en violencia: Guerrero reduce homicidios en 65% y Acapulco, en 71%, según informe federal


