Sui explica una caída de seis horas y descarta pérdidas

On Ene 16, 2026 at 1:31 pm UTC by · 4 mins read

La blockchain Sui sufrió una interrupción relevante de su red principal el pasado 14 de enero, con una paralización de aproximadamente seis horas en la producción de bloques y en el procesamiento de transacciones. Tras el incidente, la Fundación Sui ha publicado un informe técnico en el que asegura que los fondos de los usuarios […]

La blockchain Sui sufrió una interrupción relevante de su red principal el pasado 14 de enero, con una paralización de aproximadamente seis horas en la producción de bloques y en el procesamiento de transacciones. Tras el incidente, la Fundación Sui ha publicado un informe técnico en el que asegura que los fondos de los usuarios estuvieron siempre a salvo y detalla las causas del fallo.

Una interrupción total durante seis horas

La Sui Mainnet quedó detenida durante cerca de seis horas, afectando a todos los validadores de la red. Durante ese periodo no se produjeron nuevos bloques y las transacciones quedaron en espera.

En el análisis posterior, publicado el 16 de enero, la Fundación Sui atribuye el problema a un fallo interno en el procesamiento del consenso por parte de los validadores. En concreto, se produjo una divergencia en la forma en que estos interpretaron ciertos compromisos de consenso, lo que impidió certificar los llamados checkpoints y provocó que las transacciones acabaran caducando.

Desde el equipo insisten en que los mecanismos de seguridad funcionaron correctamente: no se perdió ningún fondo, no hubo inconsistencias en los estados finales y la integridad de la red se mantuvo en todo momento.

Qué falló exactamente en el consenso

Según la explicación técnica, los validadores no lograron ponerse de acuerdo sobre un único digest de checkpoint tras llegar a conclusiones distintas sobre determinados commits de consenso. Esa falta de unanimidad bloqueó la certificación y, con ella, la ejecución normal de las transacciones.

Sui subraya que el incidente no estuvo relacionado con congestión de la red, picos de actividad ni con ningún tipo de ataque externo. Durante la interrupción, las peticiones de lectura vía RPC siguieron ofreciendo el último estado certificado de la cadena, salvo en los nodos configurados para dejar de servir datos tras periodos prolongados de inactividad.

La fundación recalca que no se revirtieron transacciones ya certificadas, no se produjeron dobles gastos y los saldos de los usuarios permanecieron intactos.

Cómo se resolvió el problema

Una vez localizado el punto exacto de la divergencia, los ingenieros desplegaron una corrección que eliminaba los datos de consenso incorrectos y permitía reproducir de forma segura el tramo afectado del historial.

Los validadores operados por Mysten Labs fueron los primeros en aplicar el parche a modo de prueba. Tras confirmar, mediante registros y verificaciones internas, que la producción de checkpoints volvía a la normalidad, el resto de validadores actualizó el software.

Con el consenso reproducido de forma determinista y una vez que un quórum firmó el mismo checkpoint, la certificación se reanudó y la red recuperó su funcionamiento habitual.

Impacto en el precio y reacción de la comunidad

Durante la caída, la operativa en exchanges y protocolos DeFi se ralentizó, aunque se normalizó tras la estabilización de la cadena. El token SUI llegó a caer en torno a un 4 % durante la interrupción, para rebotar posteriormente hasta situarse cerca de los 0,87 dólares al día siguiente.

En redes sociales, parte de la comunidad mostró preocupación al tratarse del segundo apagón relevante desde el lanzamiento de Sui en 2023. “Es la segunda gran caída desde el inicio y seguimos sin una explicación pública clara de la causa raíz”, escribió el usuario 0xc06 en X.

En el contexto de las blockchains de capa 1, Solana sigue encabezando la lista de redes con más interrupciones, mientras que Sui y Aptos acumulan, respectivamente, dos y una desde su lanzamiento.

Próximos pasos para evitar nuevos parones

El equipo de Sui ha anunciado varias medidas para acortar los tiempos de recuperación en casos similares:

  • Detección más temprana de inconsistencias en los checkpoints para pausar antes el consenso.
  • Herramientas más automatizadas para que los operadores identifiquen y limpien estados internos divergentes.
  • Ampliación de las pruebas aleatorias y adversariales del consenso, con configuraciones actualizadas de Antithesis para detectar este tipo de fallos de forma sistemática.

Desde la fundación concluyen que todas las garantías de seguridad y consistencia se mantuvieron durante el incidente y que, a día de hoy, la red vuelve a operar con total normalidad.

Sigue leyendo acerca de las criptomonedas con IA

Share:
Exit mobile version