
Un equipo de la Universidad de Tianjin presentó Diff-KD, un nuevo marco de inteligencia artificial que busca resolver uno de los grandes problemas de la conducción autónoma: cómo mantener una percepción colaborativa confiable cuando los sensores y las comunicaciones se degradan por niebla, interferencias, agua o errores de pose.
***
- Diff-KD combina modelos de difusión y destilación de conocimiento para restaurar características locales corruptas antes de fusionarlas.
- La propuesta fue evaluada en OPV2V y DAIR-V2X bajo siete tipos de corrupción, con resultados de referencia en precisión y robustez.
- El sistema fue entrenado solo con datos limpios y aun así superó a métodos previos bajo condiciones adversas.
Avanza la inteligencia artificial para vehículos autónomos
La Universidad de Tianjin presenta Diff-KD.
Un marco que mantiene la percepción colaborativa ante la corrupción de sensores.
Supera a métodos previos en condiciones adversas mientras se entrena solo con datos… pic.twitter.com/b63gLDCnEa
— Diario฿itcoin (@DiarioBitcoin) April 4, 2026
La percepción colaborativa se ha convertido en una pieza clave para los sistemas autónomos de nueva generación. La idea es simple en apariencia: varios vehículos o agentes comparten sus observaciones para compensar los límites de cada sensor individual. En la práctica, sin embargo, ese beneficio puede evaporarse rápido cuando los datos llegan contaminados por niebla, desenfoque, interferencias electromagnéticas o errores de comunicación.
Ese es el problema que aborda Diff-KD: Diffusion-based Knowledge Distillation for Collaborative Perception under Corruptions, trabajo firmado por Pengcheng Lyu, Chaokun Zhang, Gong Chen, Tao Tang y Zhaoxiang Luo, todos afiliados a la Universidad de Tianjin en China. Su propuesta combina modelos generativos de difusión con destilación de conocimiento entre un modelo maestro y uno estudiante para mejorar la robustez de la percepción colaborativa bajo condiciones corruptas.
Según los autores, buena parte de los métodos existentes enfrenta este desafío de forma incompleta. Algunos sistemas intentan filtrar o suprimir entradas ruidosas durante la fusión. Otros imitan la salida de un modelo maestro más potente. Pero, en ambos casos, el punto de partida sigue siendo un dato local dañado que rara vez se intenta reconstruir activamente.
La novedad de Diff-KD es precisamente ese cambio de enfoque. En vez de aceptar las observaciones corruptas como un hecho inmutable, el método intenta recuperar la semántica limpia subyacente antes de la fusión global. Para ello, trata la restauración de características como una tarea generativa condicionada por difusión.
Cómo funciona Diff-KD
El sistema se apoya en una arquitectura maestro-estudiante. El modelo maestro recibe una nube de puntos de vista global, construida a partir de la alineación espacial y fusión de datos de todos los agentes. Esa entrada se procesa con un codificador LiDAR PointPillars para producir un mapa de características BEV, o vista de pájaro, que luego se mejora con un bloque llamado Lite Gated Modulation, abreviado como LGM.
El modelo estudiante, que es el que finalmente se despliega en inferencia, trabaja con nubes de puntos locales de múltiples agentes. Cada agente extrae sus propias características BEV. Luego, antes de fusionarlas con las de otros participantes, esas representaciones son refinadas por un proceso de difusión condicional que intenta reconstruir una versión más cercana a la representación global limpia del maestro.
Los autores llaman a este proceso Progressive Knowledge Distillation, o PKD. La primera parte ocurre antes de la fusión y actúa como una restauración semántica local. La segunda ocurre después de la fusión y alinea tanto las características intermedias como las predicciones finales del estudiante con las del maestro. En términos simples, el sistema no solo aprende a ver mejor localmente, sino también a mantener coherencia con una visión global más completa.
La segunda pieza central del marco es Adaptive Gated Fusion, o AGF. Este módulo asigna pesos dinámicos a los vecinos según la confiabilidad del agente ego, es decir, el vehículo principal de referencia. En lugar de fusionar toda la información colaborativa con la misma intensidad, el sistema decide cuánto confiar en cada fuente y cuánto preservar de la representación propia.
Para lograrlo, AGF calcula mapas de importancia por agente y por ubicación espacial. Luego produce una característica colaborativa ponderada y la mezcla con la información del ego mediante un bloque de modulación ligera. El objetivo es aprovechar la complementariedad entre agentes sin amplificar artefactos introducidos por ruido o por el propio proceso de difusión.
Pruebas con siete tipos de corrupción
Para medir la robustez del enfoque, el equipo utilizó dos benchmarks de percepción colaborativa ampliamente conocidos: OPV2V, un conjunto de datos simulado con escenarios urbanos y de autopista, y DAIR-V2X, una base de datos del mundo real orientada a cooperación entre vehículo e infraestructura. En ambos casos aplicaron siete tipos de corrupción inspirados en modelos físicamente fundamentados usados en pruebas recientes de percepción 3D.
Las corrupciones consideradas fueron beam missing, motion blur, fog, cross talk, cross sensor, water y echo. Un detalle importante es que Diff-KD fue entrenado exclusivamente con datos limpios y luego evaluado sobre todas las variantes corruptas sin ajuste fino adicional. Ese punto refuerza la tesis de que el método logra una capacidad de generalización relevante bajo deterioros no vistos durante el entrenamiento.
En OPV2V, Diff-KD obtuvo el mejor resultado general en condiciones limpias con AP@0.5 de 92,03% y AP@0.7 de 87,81%. Bajo beam missing registró 87,86% y 82,27%. En motion blur alcanzó 86,17% y 70,57%. En fog logró 71,04% y 64,57%. En cross talk subió a 87,71% y 81,27%. En cross sensor marcó 81,94% y 75,91%. En water obtuvo 90,01% y 85,24%. Y en echo llegó a 91,72% y 87,67%.
En DAIR-V2X, el método también lideró. En limpio obtuvo AP@0.5 de 78,27% y AP@0.7 de 63,92%. Bajo beam missing registró 48,15% y 33,05%. En motion blur subió a 70,21% y 49,02%. En fog alcanzó 48,53% y 38,28%. En cross talk marcó 71,70% y 53,75%. En cross sensor obtuvo 43,00% y 31,96%. En water logró 70,48% y 54,51%. En echo cerró con 77,11% y 62,90%.
Frente al método DSRC, que fue el segundo mejor en varios casos, Diff-KD mejoró en datos limpios por +0,21 y +2,58 puntos en OPV2V para AP@0.5 y AP@0.7. En DAIR-V2X, la ventaja fue de +3,06 y +2,30 puntos. El estudio también señala que, en promedio, bajo condiciones corruptas, el sistema superó al escenario sin colaboración por +21,80 y +38,64 puntos en OPV2V, y por +11,17 y +8,77 puntos en DAIR-V2X.
Menor sensibilidad a la degradación y al ruido de pose
Otra métrica central del trabajo fue el mRCE, o mean Relative Calibration Error. Este indicador mide la caída relativa promedio del rendimiento ante corrupción. Un valor más bajo implica que el modelo conserva mejor su precisión cuando la entrada se deteriora. En OPV2V, Diff-KD logró un mRCE de 9,17%, por debajo del 10,60% de Where2Comm, el segundo mejor. En DAIR-V2X obtuvo 24,69%, frente a 25,63% de DSRC.
Los investigadores también probaron el efecto del ruido de pose, un problema especialmente delicado en percepción colaborativa porque errores en la localización o en la orientación pueden desalinear las características espaciales que se van a fusionar. Para ello, inyectaron ruido gaussiano creciente en la localización y heading de los vehículos colaboradores sobre OPV2V.
Como era esperable, todos los modelos empeoraron cuando el ruido aumentó desde el nivel (0,0, 0,0) hasta (0,4, 0,4). Aun así, Diff-KD mantuvo el mejor desempeño en todos los niveles de ruido y mostró una degradación más gradual. En el nivel más alto, alcanzó un AP@0.7 de 74,77%, por encima del 68,42% conseguido por ERMVP, el segundo mejor en esa prueba.
Ese resultado sugiere una ventaja práctica relevante. En entornos reales, la cooperación entre vehículos no solo depende de sensores limpios, sino también de una sincronización espacial razonable. Si el método resiste mejor errores de pose, puede ofrecer mayor estabilidad en escenarios urbanos complejos, donde el posicionamiento relativo rara vez es perfecto.
Ablaciones y contexto técnico
El estudio incluyó además pruebas de ablación sobre el conjunto de validación de DAIR-V2X para medir el aporte de cada módulo. En el maestro, añadir LGM elevó el AP@0.7 desde 0,6159 hasta 0,6390. En el estudiante, el modelo base inspirado en DiscoNet arrancó con AP@0.5 de 0,7375 y AP@0.7 de 0,5815.
Cuando se añadió solo PKD, los valores subieron a 0,7489 y 0,6038. Al incorporar solo AGF, el modelo llegó a 0,7820 y 0,6265. La configuración completa, con PKD y AGF juntos, alcanzó 78,27% y 63,92%, el mejor resultado del conjunto. Según los autores, esto refleja un efecto sinérgico entre la restauración generativa previa y la fusión adaptativa posterior.
Un dato llamativo es que el estudiante terminó superando al maestro. El trabajo explica este punto señalando que el maestro depende de una vista global estática, mientras que el estudiante adquiere capacidad de adaptación dinámica durante la inferencia. En otras palabras, la supervisión del maestro sirve como guía, pero el diseño final del estudiante le permite responder mejor cuando enfrenta incertidumbre real.
Para lectores menos familiarizados con este campo, el aporte de Diff-KD también puede leerse dentro de una tendencia más amplia en IA: usar modelos generativos no solo para crear imágenes o texto, sino para reconstruir información útil en tareas críticas. En este caso, el objetivo no es producir contenido vistoso, sino recuperar semántica espacial confiable para detección 3D y seguridad vehicular.
El paper menciona comparaciones con No Collaboration, Late Fusion, ERMVP, V2X-ViT, Fcooper, Where2Comm y DSRC. Dentro de ese grupo, la ventaja de Diff-KD es que intenta corregir el problema antes de que el error local se propague a toda la red colaborativa. Ese enfoque puede resultar especialmente atractivo para futuros sistemas V2X, donde la calidad del dato compartido no siempre estará garantizada.
En su conclusión, los autores sostienen que Diff-KD desplaza la percepción colaborativa desde una alineación pasiva de entradas corruptas hacia una restauración activa y generativa de características. Si estos resultados se sostienen en implementaciones posteriores, el trabajo podría abrir una nueva ruta para sistemas autónomos más resilientes, capaces de cooperar incluso cuando el entorno físico y las comunicaciones juegan en contra.


Avanza la inteligencia artificial para vehículos autónomos