Tokenización: Entender cómo convertir datos de texto crudo en un formato que el modelo pueda entender, lo que involucra dividir el texto en tokens (generalmente palabras o subpalabras). Mecanismos de atención: Comprender la teoría detrás de los mecanismos de atención, incluyendo la auto...