Con el uso de técnicas de aprendizaje profundo, o deep learning, una física de la Universidad Nacional de Colombia (UNAL) evaluó un modelo computacional capaz de analizar interacciones entre las partículas más pequeñas del universo, como cuarks o bosones —los “legos” fundamentales del cosmos—, con un nivel de detalle mayor al alcanzado hasta ahora. Su desarrollo ayuda a identificar con mayor precisión qué partícula dio origen a otro, incluso en escenarios en los que antes era difícil distinguirlas en medio de grandes volúmenes de datos.
Como si se tratara de reconstruir una escena invisible a
partir de sus huellas, en aceleradores como el Gran Colisionador de Hadrones
(LHC), ubicado entre Suiza y Francia, se producen millones de colisiones de
protones cada segundo. Este flujo masivo de información genera un entorno
saturado, en el que múltiples interacciones ocurren casi al mismo tiempo.
En lugar de observar partículas individuales, los detectores
registran grupos de fragmentos que se desplazan juntos, conocidos como jets.
Estos surgen cuando partículas fundamentales, como los cuarks, se transforman
rápidamente en múltiples partículas más estables. Identificar qué originó cada
uno de estos jets es uno de los mayores desafíos actuales.
El reto en este campo siempre ha sido determinar qué
partícula dio origen a ese “chorro” de información. Algunas, como el cuark sima
(quark top en inglés) —una de las más pesadas y efímeras
conocidas—, desaparecen casi de inmediato, por lo que solo se pueden estudiar a
partir de las partículas que generan al desintegrarse. Es como intentar
adivinar qué objeto se rompió observando solo los fragmentos que quedaron en el
suelo.
Para abordar este problema, la investigadora Diana Catalina
Riaño Reyes, magíster en Estadística de la UNAL, junto al grupo de Partículas
FENYX-UN, implementó y evaluó un modelo de aprendizaje profundo basado en
arquitecturas tipo transformer, considerado como uno de los enfoques más
avanzados en este campo. A diferencia de métodos anteriores, que analizaban las
partículas individualmente o en estructuras rígidas, este modelo interpreta el
conjunto completo como un sistema, entendiendo cómo se relacionan entre sí las
partículas dentro de un mismo jet.
En lugar de ver los datos como una lista ordenada, el modelo
analiza todas las partículas al mismo tiempo y reconoce cuáles son más
relevantes para entender el evento. Así logra identificar patrones que antes
pasaban desapercibidos, incluso en entornos con gran cantidad de información
superpuesta.
Dicho cambio de enfoque permite capturar mejor
características físicas como la energía de las partículas, su distribución en
el espacio y la forma en que se agrupan. En otras palabras, el modelo no solo
analiza fragmentos aislados, sino que además “aprende” a interpretar la
estructura interna del jet, lo que mejora significativamente la
identificación de su origen.
Enseñándole al modelo sobre el universo
Antes de reconocer estos patrones, el modelo tuvo que ser
entrenado con millones de ejemplos. Para ello no se utilizaron directamente
datos de experimentos en tiempo real sino simulaciones basadas en las leyes
conocidas de la física, en las cuales los científicos pueden recrear colisiones
y conocer con exactitud qué partícula originó cada evento.
Estas simulaciones, construidas a partir de bases de datos
especializadas como JetClass, permiten entrenar el modelo en un entorno
controlado, en donde cada caso tiene una respuesta correcta. Así, el sistema
aprende a distinguir entre distintos tipos de partículas antes de enfrentarse a
datos reales.
En total se analizaron cerca de 100 millones de jets correspondientes
a diferentes tipos de partículas, entre ellas cuarks, gluones y bosones como el
W, el Z y el Higgs. Esta diversidad es fundamental, ya que el verdadero reto no
es solo identificar una partícula, sino no confundirla con otras que producen
señales similares.
“El objetivo es aumentar la precisión con la que
identificamos qué partícula origina un jet, lo que permite separar
con mayor claridad los procesos conocidos del ruido de fondo y facilitar la
búsqueda de fenómenos nuevos”, explica la investigadora Riaño, cuyo trabajo fue
dirigido por el profesor Carlos Eduardo Sandoval Usme, del Departamento de
Física de la UNAL.
Los resultados muestran que el modelo alcanza niveles de
precisión superiores al 98 % en la clasificación de estos eventos. Más que
una cifra aislada, esto significa que es capaz de reducir de manera importante
los errores y distinguir con mayor claridad las señales relevantes dentro de
grandes volúmenes de datos.
Además, el estudio evidenció que no solo importa la cantidad
de datos, sino también la calidad de la información que se le proporciona al
modelo. Incorporar mejor las características físicas de las partículas puede
ser tan importante como aumentar el tamaño de los datos utilizados.
Aunque estos avances no reemplazan los sensores de los
detectores actuales, que funcionan en espacios como el LHC, pero sí potencia su
capacidad. En lugar de construir nuevos instrumentos, permite aprovechar mejor
la información que ya se recoge, identificando patrones que antes pasaban
desapercibidos.
Gracias a esto, los científicos podrían detectar con mayor
facilidad eventos extremadamente raros, aquellos que ocurren muy pocas veces y
que estarían relacionados con nuevas partículas o fenómenos aún desconocidos.
En un campo donde lo más importante ocurre en escalas
invisibles y en instantes fugaces, mejorar la forma de interpretar los datos
puede marcar la diferencia entre confirmar lo que ya se sabe o descubrir algo
completamente nuevo.






































