Redes Neuronales de Memoria Dispersa
Investigamos arquitecturas que optimizan el uso de memoria en el entrenamiento de grandes modelos lingüísticos (LLM), reduciendo la huella de carbono digital sin sacrificar la precisión semántica.
- Optimización de pesos
- Mecanismos de atención eficientes