martes, 14 de abril de 2026

Modelos de inteligencia artificial detectarían partículas desconocidas en el universo

 Con el uso de técnicas de aprendizaje profundo, o deep learning, una física de la Universidad Nacional de Colombia (UNAL) evaluó un modelo computacional capaz de analizar interacciones entre las partículas más pequeñas del universo, como cuarks o bosones —los “legos” fundamentales del cosmos—, con un nivel de detalle mayor al alcanzado hasta ahora. Su desarrollo ayuda a identificar con mayor precisión qué partícula dio origen a otro, incluso en escenarios en los que antes era difícil distinguirlas en medio de grandes volúmenes de datos.

Como si se tratara de reconstruir una escena invisible a partir de sus huellas, en aceleradores como el Gran Colisionador de Hadrones (LHC), ubicado entre Suiza y Francia, se producen millones de colisiones de protones cada segundo. Este flujo masivo de información genera un entorno saturado, en el que múltiples interacciones ocurren casi al mismo tiempo.

En lugar de observar partículas individuales, los detectores registran grupos de fragmentos que se desplazan juntos, conocidos como jets. Estos surgen cuando partículas fundamentales, como los cuarks, se transforman rápidamente en múltiples partículas más estables. Identificar qué originó cada uno de estos jets es uno de los mayores desafíos actuales.

El reto en este campo siempre ha sido determinar qué partícula dio origen a ese “chorro” de información. Algunas, como el cuark sima (quark top en inglés) —una de las más pesadas y efímeras conocidas—, desaparecen casi de inmediato, por lo que solo se pueden estudiar a partir de las partículas que generan al desintegrarse. Es como intentar adivinar qué objeto se rompió observando solo los fragmentos que quedaron en el suelo.

Para abordar este problema, la investigadora Diana Catalina Riaño Reyes, magíster en Estadística de la UNAL, junto al grupo de Partículas FENYX-UN, implementó y evaluó un modelo de aprendizaje profundo basado en arquitecturas tipo transformer, considerado como uno de los enfoques más avanzados en este campo. A diferencia de métodos anteriores, que analizaban las partículas individualmente o en estructuras rígidas, este modelo interpreta el conjunto completo como un sistema, entendiendo cómo se relacionan entre sí las partículas dentro de un mismo jet.

En lugar de ver los datos como una lista ordenada, el modelo analiza todas las partículas al mismo tiempo y reconoce cuáles son más relevantes para entender el evento. Así logra identificar patrones que antes pasaban desapercibidos, incluso en entornos con gran cantidad de información superpuesta.

Dicho cambio de enfoque permite capturar mejor características físicas como la energía de las partículas, su distribución en el espacio y la forma en que se agrupan. En otras palabras, el modelo no solo analiza fragmentos aislados, sino que además “aprende” a interpretar la estructura interna del jet, lo que mejora significativamente la identificación de su origen.

Enseñándole al modelo sobre el universo

Antes de reconocer estos patrones, el modelo tuvo que ser entrenado con millones de ejemplos. Para ello no se utilizaron directamente datos de experimentos en tiempo real sino simulaciones basadas en las leyes conocidas de la física, en las cuales los científicos pueden recrear colisiones y conocer con exactitud qué partícula originó cada evento.

Estas simulaciones, construidas a partir de bases de datos especializadas como JetClass, permiten entrenar el modelo en un entorno controlado, en donde cada caso tiene una respuesta correcta. Así, el sistema aprende a distinguir entre distintos tipos de partículas antes de enfrentarse a datos reales.

En total se analizaron cerca de 100 millones de jets correspondientes a diferentes tipos de partículas, entre ellas cuarks, gluones y bosones como el W, el Z y el Higgs. Esta diversidad es fundamental, ya que el verdadero reto no es solo identificar una partícula, sino no confundirla con otras que producen señales similares.

“El objetivo es aumentar la precisión con la que identificamos qué partícula origina un jet, lo que permite separar con mayor claridad los procesos conocidos del ruido de fondo y facilitar la búsqueda de fenómenos nuevos”, explica la investigadora Riaño, cuyo trabajo fue dirigido por el profesor Carlos Eduardo Sandoval Usme, del Departamento de Física de la UNAL.

Los resultados muestran que el modelo alcanza niveles de precisión superiores al 98 % en la clasificación de estos eventos. Más que una cifra aislada, esto significa que es capaz de reducir de manera importante los errores y distinguir con mayor claridad las señales relevantes dentro de grandes volúmenes de datos.

Además, el estudio evidenció que no solo importa la cantidad de datos, sino también la calidad de la información que se le proporciona al modelo. Incorporar mejor las características físicas de las partículas puede ser tan importante como aumentar el tamaño de los datos utilizados.

Aunque estos avances no reemplazan los sensores de los detectores actuales, que funcionan en espacios como el LHC, pero sí potencia su capacidad. En lugar de construir nuevos instrumentos, permite aprovechar mejor la información que ya se recoge, identificando patrones que antes pasaban desapercibidos.

Gracias a esto, los científicos podrían detectar con mayor facilidad eventos extremadamente raros, aquellos que ocurren muy pocas veces y que estarían relacionados con nuevas partículas o fenómenos aún desconocidos.

En un campo donde lo más importante ocurre en escalas invisibles y en instantes fugaces, mejorar la forma de interpretar los datos puede marcar la diferencia entre confirmar lo que ya se sabe o descubrir algo completamente nuevo.







No hay comentarios:

Publicar un comentario