{"id":133295,"date":"2026-04-03T18:58:35","date_gmt":"2026-04-04T00:58:35","guid":{"rendered":"https:\/\/pongara.net\/news\/diff-kd-promete-percepcion-colaborativa-mas-robusta-para-vehiculos-autonomos-bajo-corrupcion-de-sensores\/"},"modified":"2026-04-03T18:58:35","modified_gmt":"2026-04-04T00:58:35","slug":"diff-kd-promete-percepcion-colaborativa-mas-robusta-para-vehiculos-autonomos-bajo-corrupcion-de-sensores","status":"publish","type":"post","link":"https:\/\/pongara.net\/news\/diff-kd-promete-percepcion-colaborativa-mas-robusta-para-vehiculos-autonomos-bajo-corrupcion-de-sensores\/","title":{"rendered":"Diff-KD promete percepci\u00f3n colaborativa m\u00e1s robusta para veh\u00edculos aut\u00f3nomos bajo corrupci\u00f3n de sensores"},"content":{"rendered":"<div>\n<div><img width=\"640\" height=\"384\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775264297-840x504-1.jpg\" class=\"attachment-large size-large wp-post-image\" alt=\"\" style=\"margin-bottom: 15px;\" loading=\"lazy\" decoding=\"async\" srcset=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775264297-840x504-1.jpg 840w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775264297-608x365.jpg 608w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775264297-768x461.jpg 768w, https:\/\/diariobitcoin.b-cdn.net\/wp-content\/uploads\/2026\/04\/canuto-imagine-1775264297.jpg 1226w\" sizes=\"auto, (max-width: 640px) 100vw, 640px\"><\/div>\n<p><strong>Un equipo de la Universidad de Tianjin present\u00f3 Diff-KD, un nuevo marco de inteligencia artificial que busca resolver uno de los grandes problemas de la conducci\u00f3n aut\u00f3noma: c\u00f3mo mantener una percepci\u00f3n colaborativa confiable cuando los sensores y las comunicaciones se degradan por niebla, interferencias, agua o errores de pose.<br \/>\n***<\/strong><\/p>\n<ul>\n<li><strong>Diff-KD combina modelos de difusi\u00f3n y destilaci\u00f3n de conocimiento para restaurar caracter\u00edsticas locales corruptas antes de fusionarlas.<\/strong><\/li>\n<li><strong>La propuesta fue evaluada en OPV2V y DAIR-V2X bajo siete tipos de corrupci\u00f3n, con resultados de referencia en precisi\u00f3n y robustez.<\/strong><\/li>\n<li><strong>El sistema fue entrenado solo con datos limpios y aun as\u00ed super\u00f3 a m\u00e9todos previos bajo condiciones adversas.<\/strong><\/li>\n<\/ul>\n<p>\u00a0<\/p>\n<hr>\n<blockquote class=\"twitter-tweet\">\n<p lang=\"es\" dir=\"ltr\"><img decoding=\"async\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/1f697.png\" alt=\"\ud83d\ude97\" class=\"wp-smiley\" style=\"height: 1em; max-height: 1em;\"><img decoding=\"async\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/1f4bb.png\" alt=\"\ud83d\udcbb\" class=\"wp-smiley\" style=\"height: 1em; max-height: 1em;\"> Avanza la inteligencia artificial para veh\u00edculos aut\u00f3nomos<\/p>\n<p>La Universidad de Tianjin presenta Diff-KD. <\/p>\n<p>Un marco que mantiene la percepci\u00f3n colaborativa ante la corrupci\u00f3n de sensores. <\/p>\n<p>Supera a m\u00e9todos previos en condiciones adversas mientras se entrena solo con datos\u2026 <a href=\"https:\/\/t.co\/b63gLDCnEa\">pic.twitter.com\/b63gLDCnEa<\/a><\/p>\n<p>\u2014 Diario\u0e3fitcoin\uea00 (@DiarioBitcoin) <a href=\"https:\/\/twitter.com\/DiarioBitcoin\/status\/2040236692364308697?ref_src=twsrc%5Etfw\">April 4, 2026<\/a><\/p>\n<\/blockquote>\n<p>La percepci\u00f3n colaborativa se ha convertido en una pieza clave para los sistemas aut\u00f3nomos de nueva generaci\u00f3n. La idea es simple en apariencia: varios veh\u00edculos o agentes comparten sus observaciones para compensar los l\u00edmites de cada sensor individual. En la pr\u00e1ctica, sin embargo, ese beneficio puede evaporarse r\u00e1pido cuando los datos llegan contaminados por niebla, desenfoque, interferencias electromagn\u00e9ticas o errores de comunicaci\u00f3n.<\/p>\n<p>Ese es el problema que aborda <a href=\"https:\/\/arxiv.org\/pdf\/2604.02061\">Diff-KD: Diffusion-based Knowledge Distillation for Collaborative Perception under Corruptions<\/a>, trabajo firmado por Pengcheng Lyu, Chaokun Zhang, Gong Chen, Tao Tang y Zhaoxiang Luo, todos afiliados a la Universidad de Tianjin en China. Su propuesta combina modelos generativos de difusi\u00f3n con destilaci\u00f3n de conocimiento entre un modelo maestro y uno estudiante para mejorar la robustez de la percepci\u00f3n colaborativa bajo condiciones corruptas.<\/p>\n<p>Seg\u00fan los autores, buena parte de los m\u00e9todos existentes enfrenta este desaf\u00edo de forma incompleta. Algunos sistemas intentan filtrar o suprimir entradas ruidosas durante la fusi\u00f3n. Otros imitan la salida de un modelo maestro m\u00e1s potente. Pero, en ambos casos, el punto de partida sigue siendo un dato local da\u00f1ado que rara vez se intenta reconstruir activamente.<\/p>\n<p>La novedad de Diff-KD es precisamente ese cambio de enfoque. En vez de aceptar las observaciones corruptas como un hecho inmutable, el m\u00e9todo intenta recuperar la sem\u00e1ntica limpia subyacente antes de la fusi\u00f3n global. Para ello, trata la restauraci\u00f3n de caracter\u00edsticas como una tarea generativa condicionada por difusi\u00f3n.<\/p>\n<h3>C\u00f3mo funciona Diff-KD<\/h3>\n<p>El sistema se apoya en una arquitectura maestro-estudiante. El modelo maestro recibe una nube de puntos de vista global, construida a partir de la alineaci\u00f3n espacial y fusi\u00f3n de datos de todos los agentes. Esa entrada se procesa con un codificador LiDAR PointPillars para producir un mapa de caracter\u00edsticas BEV, o vista de p\u00e1jaro, que luego se mejora con un bloque llamado Lite Gated Modulation, abreviado como LGM.<\/p>\n<p>El modelo estudiante, que es el que finalmente se despliega en inferencia, trabaja con nubes de puntos locales de m\u00faltiples agentes. Cada agente extrae sus propias caracter\u00edsticas BEV. Luego, antes de fusionarlas con las de otros participantes, esas representaciones son refinadas por un proceso de difusi\u00f3n condicional que intenta reconstruir una versi\u00f3n m\u00e1s cercana a la representaci\u00f3n global limpia del maestro.<\/p>\n<p>Los autores llaman a este proceso Progressive Knowledge Distillation, o PKD. La primera parte ocurre antes de la fusi\u00f3n y act\u00faa como una restauraci\u00f3n sem\u00e1ntica local. La segunda ocurre despu\u00e9s de la fusi\u00f3n y alinea tanto las caracter\u00edsticas intermedias como las predicciones finales del estudiante con las del maestro. En t\u00e9rminos simples, el sistema no solo aprende a ver mejor localmente, sino tambi\u00e9n a mantener coherencia con una visi\u00f3n global m\u00e1s completa.<\/p>\n<p>La segunda pieza central del marco es Adaptive Gated Fusion, o AGF. Este m\u00f3dulo asigna pesos din\u00e1micos a los vecinos seg\u00fan la confiabilidad del agente ego, es decir, el veh\u00edculo principal de referencia. En lugar de fusionar toda la informaci\u00f3n colaborativa con la misma intensidad, el sistema decide cu\u00e1nto confiar en cada fuente y cu\u00e1nto preservar de la representaci\u00f3n propia.<\/p>\n<p>Para lograrlo, AGF calcula mapas de importancia por agente y por ubicaci\u00f3n espacial. Luego produce una caracter\u00edstica colaborativa ponderada y la mezcla con la informaci\u00f3n del ego mediante un bloque de modulaci\u00f3n ligera. El objetivo es aprovechar la complementariedad entre agentes sin amplificar artefactos introducidos por ruido o por el propio proceso de difusi\u00f3n.<\/p>\n<h3>Pruebas con siete tipos de corrupci\u00f3n<\/h3>\n<p>Para medir la robustez del enfoque, el equipo utiliz\u00f3 dos benchmarks de percepci\u00f3n colaborativa ampliamente conocidos: OPV2V, un conjunto de datos simulado con escenarios urbanos y de autopista, y DAIR-V2X, una base de datos del mundo real orientada a cooperaci\u00f3n entre veh\u00edculo e infraestructura. En ambos casos aplicaron siete tipos de corrupci\u00f3n inspirados en modelos f\u00edsicamente fundamentados usados en pruebas recientes de percepci\u00f3n 3D.<\/p>\n<p>Las corrupciones consideradas fueron beam missing, motion blur, fog, cross talk, cross sensor, water y echo. Un detalle importante es que Diff-KD fue entrenado exclusivamente con datos limpios y luego evaluado sobre todas las variantes corruptas sin ajuste fino adicional. Ese punto refuerza la tesis de que el m\u00e9todo logra una capacidad de generalizaci\u00f3n relevante bajo deterioros no vistos durante el entrenamiento.<\/p>\n<div class=\"diari-in-content-middle diari-entity-placement\" id=\"diari-3120621670\">\n<div id=\"diari-2790973641\" data-diari-trackid=\"221195\" data-diari-trackbid=\"1\" class=\"diari-target diari-target\"><a data-no-instant=\"1\" href=\"https:\/\/youhodler.onelink.me\/IPBU\/p5h71gsx\" rel=\"noopener\" class=\"a2t-link\" target=\"_blank\" aria-label=\"6stable - 1200x250\"><img fetchpriority=\"high\" decoding=\"async\" src=\"https:\/\/pongara.net\/news\/wp-content\/uploads\/2026\/04\/6stable-1200x250-1-5.gif\" alt=\"6stable - 1200x250\" width=\"1200\" height=\"250\" style=\" max-width: 100%; height: auto;\"><\/a><\/div>\n<\/div>\n<p>En OPV2V, Diff-KD obtuvo el mejor resultado general en condiciones limpias con AP@0.5 de 92,03% y AP@0.7 de 87,81%. Bajo beam missing registr\u00f3 87,86% y 82,27%. En motion blur alcanz\u00f3 86,17% y 70,57%. En fog logr\u00f3 71,04% y 64,57%. En cross talk subi\u00f3 a 87,71% y 81,27%. En cross sensor marc\u00f3 81,94% y 75,91%. En water obtuvo 90,01% y 85,24%. Y en echo lleg\u00f3 a 91,72% y 87,67%.<\/p>\n<p>En DAIR-V2X, el m\u00e9todo tambi\u00e9n lider\u00f3. En limpio obtuvo AP@0.5 de 78,27% y AP@0.7 de 63,92%. Bajo beam missing registr\u00f3 48,15% y 33,05%. En motion blur subi\u00f3 a 70,21% y 49,02%. En fog alcanz\u00f3 48,53% y 38,28%. En cross talk marc\u00f3 71,70% y 53,75%. En cross sensor obtuvo 43,00% y 31,96%. En water logr\u00f3 70,48% y 54,51%. En echo cerr\u00f3 con 77,11% y 62,90%.<\/p>\n<p>Frente al m\u00e9todo DSRC, que fue el segundo mejor en varios casos, Diff-KD mejor\u00f3 en datos limpios por +0,21 y +2,58 puntos en OPV2V para AP@0.5 y AP@0.7. En DAIR-V2X, la ventaja fue de +3,06 y +2,30 puntos. El estudio tambi\u00e9n se\u00f1ala que, en promedio, bajo condiciones corruptas, el sistema super\u00f3 al escenario sin colaboraci\u00f3n por +21,80 y +38,64 puntos en OPV2V, y por +11,17 y +8,77 puntos en DAIR-V2X.<\/p>\n<h3>Menor sensibilidad a la degradaci\u00f3n y al ruido de pose<\/h3>\n<p>Otra m\u00e9trica central del trabajo fue el mRCE, o mean Relative Calibration Error. Este indicador mide la ca\u00edda relativa promedio del rendimiento ante corrupci\u00f3n. Un valor m\u00e1s bajo implica que el modelo conserva mejor su precisi\u00f3n cuando la entrada se deteriora. En OPV2V, Diff-KD logr\u00f3 un mRCE de 9,17%, por debajo del 10,60% de Where2Comm, el segundo mejor. En DAIR-V2X obtuvo 24,69%, frente a 25,63% de DSRC.<\/p>\n<p>Los investigadores tambi\u00e9n probaron el efecto del ruido de pose, un problema especialmente delicado en percepci\u00f3n colaborativa porque errores en la localizaci\u00f3n o en la orientaci\u00f3n pueden desalinear las caracter\u00edsticas espaciales que se van a fusionar. Para ello, inyectaron ruido gaussiano creciente en la localizaci\u00f3n y heading de los veh\u00edculos colaboradores sobre OPV2V.<\/p>\n<p>Como era esperable, todos los modelos empeoraron cuando el ruido aument\u00f3 desde el nivel (0,0, 0,0) hasta (0,4, 0,4). Aun as\u00ed, Diff-KD mantuvo el mejor desempe\u00f1o en todos los niveles de ruido y mostr\u00f3 una degradaci\u00f3n m\u00e1s gradual. En el nivel m\u00e1s alto, alcanz\u00f3 un AP@0.7 de 74,77%, por encima del 68,42% conseguido por ERMVP, el segundo mejor en esa prueba.<\/p>\n<p>Ese resultado sugiere una ventaja pr\u00e1ctica relevante. En entornos reales, la cooperaci\u00f3n entre veh\u00edculos no solo depende de sensores limpios, sino tambi\u00e9n de una sincronizaci\u00f3n espacial razonable. Si el m\u00e9todo resiste mejor errores de pose, puede ofrecer mayor estabilidad en escenarios urbanos complejos, donde el posicionamiento relativo rara vez es perfecto.<\/p>\n<h3>Ablaciones y contexto t\u00e9cnico<\/h3>\n<p>El estudio incluy\u00f3 adem\u00e1s pruebas de ablaci\u00f3n sobre el conjunto de validaci\u00f3n de DAIR-V2X para medir el aporte de cada m\u00f3dulo. En el maestro, a\u00f1adir LGM elev\u00f3 el AP@0.7 desde 0,6159 hasta 0,6390. En el estudiante, el modelo base inspirado en DiscoNet arranc\u00f3 con AP@0.5 de 0,7375 y AP@0.7 de 0,5815.<\/p>\n<p>Cuando se a\u00f1adi\u00f3 solo PKD, los valores subieron a 0,7489 y 0,6038. Al incorporar solo AGF, el modelo lleg\u00f3 a 0,7820 y 0,6265. La configuraci\u00f3n completa, con PKD y AGF juntos, alcanz\u00f3 78,27% y 63,92%, el mejor resultado del conjunto. Seg\u00fan los autores, esto refleja un efecto sin\u00e9rgico entre la restauraci\u00f3n generativa previa y la fusi\u00f3n adaptativa posterior.<\/p>\n<p>Un dato llamativo es que el estudiante termin\u00f3 superando al maestro. El trabajo explica este punto se\u00f1alando que el maestro depende de una vista global est\u00e1tica, mientras que el estudiante adquiere capacidad de adaptaci\u00f3n din\u00e1mica durante la inferencia. En otras palabras, la supervisi\u00f3n del maestro sirve como gu\u00eda, pero el dise\u00f1o final del estudiante le permite responder mejor cuando enfrenta incertidumbre real.<\/p>\n<p>Para lectores menos familiarizados con este campo, el aporte de Diff-KD tambi\u00e9n puede leerse dentro de una tendencia m\u00e1s amplia en IA: usar modelos generativos no solo para crear im\u00e1genes o texto, sino para reconstruir informaci\u00f3n \u00fatil en tareas cr\u00edticas. En este caso, el objetivo no es producir contenido vistoso, sino recuperar sem\u00e1ntica espacial confiable para detecci\u00f3n 3D y seguridad vehicular.<\/p>\n<p>El paper menciona comparaciones con No Collaboration, Late Fusion, ERMVP, V2X-ViT, Fcooper, Where2Comm y DSRC. Dentro de ese grupo, la ventaja de Diff-KD es que intenta corregir el problema antes de que el error local se propague a toda la red colaborativa. Ese enfoque puede resultar especialmente atractivo para futuros sistemas V2X, donde la calidad del dato compartido no siempre estar\u00e1 garantizada.<\/p>\n<p>En su conclusi\u00f3n, los autores sostienen que Diff-KD desplaza la percepci\u00f3n colaborativa desde una alineaci\u00f3n pasiva de entradas corruptas hacia una restauraci\u00f3n activa y generativa de caracter\u00edsticas. Si estos resultados se sostienen en implementaciones posteriores, el trabajo podr\u00eda abrir una nueva ruta para sistemas aut\u00f3nomos m\u00e1s resilientes, capaces de cooperar incluso cuando el entorno f\u00edsico y las comunicaciones juegan en contra.<\/p>\n<div class=\"footer-entry-meta\"><\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Un equipo de la Universidad de Tianjin present\u00f3 Diff-KD, un nuevo marco de inteligencia artificial que busca resolver uno de los grandes problemas de la [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":133296,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2,1],"tags":[21240,9678,9957,5447,285,31565,1268,11881,3368,6631,4070],"class_list":["post-133295","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-crypto","category-noticias","tag-robusta","tag-autonomos","tag-colaborativa","tag-corrupcion","tag-crypto","tag-diff-kd","tag-noticias","tag-percepcion","tag-promete","tag-sensores","tag-vehiculos"],"_links":{"self":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/133295","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/comments?post=133295"}],"version-history":[{"count":0,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/posts\/133295\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media\/133296"}],"wp:attachment":[{"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/media?parent=133295"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/categories?post=133295"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/pongara.net\/news\/wp-json\/wp\/v2\/tags?post=133295"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}