Un reportaje publicado este miércoles por Bloomberg reveló que un atacante informático utilizó el chatbot de inteligencia artificial Claude, desarrollado por Anthropic, para ejecutar una serie de intrusiones contra dependencias públicas en México, lo que derivó en la sustracción de un amplio volumen de información gubernamental.
La investigación fue elaborada por los periodistas Andrew Martin y Carolina Millan y se basa en hallazgos de la firma israelí de ciberseguridad Gambit Security.
Alcance de la intrusión
De acuerdo con el reporte, el atacante —cuya identidad no ha sido determinada— redactó instrucciones en español para que Claude actuara como un “hacker de élite”. El chatbot habría sido utilizado para detectar vulnerabilidades en redes gubernamentales, generar scripts para explotarlas y automatizar la extracción de datos.
Según Gambit Security, la actividad comenzó en diciembre y se prolongó aproximadamente un mes. En ese periodo se habrían sustraído cerca de 150 gigabytes de información, incluidos documentos vinculados con 195 millones de registros de contribuyentes, padrones electorales, credenciales de empleados públicos y archivos del registro civil.
Las entidades presuntamente afectadas incluyen al Servicio de Administración Tributaria (SAT) y al Instituto Nacional Electoral (INE), así como gobiernos estatales como Jalisco, Michoacán y Tamaulipas. También se menciona la posible afectación del registro civil de la Ciudad de México y del sistema de agua de Monterrey.
Respuestas oficiales y posiciones encontradas
Tras la difusión del reporte, el Instituto Nacional Electoral indicó que no ha identificado brechas ni accesos no autorizados recientes y afirmó haber fortalecido su estrategia de ciberseguridad. El gobierno de Jalisco negó haber sido vulnerado y sostuvo que, en todo caso, los incidentes habrían impactado redes federales.
Otras autoridades señaladas no emitieron comentarios inmediatos. En diciembre, el gobierno federal informó que investigaba posibles brechas en diversas instituciones públicas, aunque no precisó si estaban relacionadas con este caso.
El papel de la inteligencia artificial
El informe sostiene que Claude inicialmente advirtió al usuario sobre la naturaleza potencialmente maliciosa de sus solicitudes. Sin embargo, el atacante habría logrado eludir los mecanismos de protección del sistema mediante un proceso conocido como “jailbreak”, que consiste en sortear las restricciones internas del modelo.
Un portavoz de Anthropic indicó que la compañía investigó los señalamientos, interrumpió la actividad y prohibió las cuentas involucradas. También explicó que los ejemplos de uso indebido se integran al entrenamiento del modelo para fortalecer sus salvaguardas. La empresa señaló que su versión más reciente incluye mecanismos diseñados para detectar y bloquear este tipo de explotación.
El reporte añade que, cuando el atacante encontraba obstáculos con Claude, recurría a OpenAI y su chatbot ChatGPT para obtener orientación adicional sobre movimientos laterales en redes, credenciales necesarias y probabilidades de detección. OpenAI declaró que identificó intentos de uso que contravenían sus políticas, rechazó esas solicitudes y bloqueó las cuentas implicadas.
Investigación privada y contexto internacional
Gambit Security afirmó que no ha atribuido el ataque a un grupo específico y que, hasta ahora, no existen indicios que lo vinculen con un gobierno extranjero. La empresa fue fundada por exintegrantes de la unidad 8200 de inteligencia de señales de las Fuerzas de Defensa de Israel y dio a conocer sus hallazgos al anunciar su salida del “modo sigiloso” con una ronda de financiamiento por 61 millones de dólares.
El caso se enmarca en una tendencia más amplia señalada por especialistas en ciberseguridad: el uso de herramientas de inteligencia artificial como multiplicadores de capacidad para actividades ilícitas. En fechas recientes, investigadores han documentado ataques que combinan automatización avanzada con modelos generativos para escalar operaciones de intrusión.
Interrogantes pendientes
Aunque el informe detalla la supuesta extracción de grandes volúmenes de información, no se ha confirmado públicamente qué uso habría dado el atacante a los datos obtenidos. Tampoco existe, hasta el momento, un pronunciamiento integral de todas las dependencias mencionadas.
La controversia gira en torno a dos ejes principales: la magnitud real de la afectación a sistemas gubernamentales mexicanos y la capacidad de los desarrolladores de inteligencia artificial para prevenir que sus modelos sean empleados con fines ilícitos.
Las investigaciones continúan tanto en el ámbito corporativo como en el gubernamental, mientras el caso reaviva el debate sobre la regulación, supervisión y límites técnicos de las herramientas de inteligencia artificial en contextos de alta sensibilidad institucional.















