¿Por qué estas REDES NEURONALES son tan POTENTES? 🤔 | TRANSFORMERS Parte 2
Dot CSV Dot CSV
871K subscribers
179,762 views
11K

 Published On Nov 14, 2021

¿Qué hay tras el entrenamiento de IAs como GPT-3, Alphafold 2 o DALL-E? ¿Qué hace especial a sus redes neuronales? Los Transformers son el tipo de arquitectura de Deep Learning que mejor rendimiento ha dado en los últimos años. ¿Pero por qué? ¿Qué los hacen tan especiales? La respuesta la encontramos en lo altamente paralelizable que es su arquitectura, que permite sacar el máximo partido a los procesadores multinúcleos. Pero, esto tiene un coste, y es que si no hacemos nada los Transformers serían incapaces de entender el orden de los datos con los que los entrenamos. Y de ahí la importancia de soluciones como los Encoding de Posicionamiento. ¡Veamos cómo funcionan!

-- 📣 ¡IMPORTANTE! --

► ¡Regístrate al Samsung Dev Day y no te pierdas mi ponencia!
https://bit.ly/SDD2021Agenda - 18 Noviembre, 18:30

-- ¡LINKS INTERESANTES! --

► Serie Introducción al NLP y Transformers (DotCSV)
Parte 1 -    • 🔴 INTRO al Natural Language Processin...  
Parte 2 -    • 🔴 INTRO al Natural Language Processin...  
Parte 3 -    • ¿Qué es un TRANSFORMER? La Red Neuron...  

► Explicación con más detalle Positional Encoding:
https://kazemnejad.com/blog/transform...

-- ¡MÁS DOTCSV! ---

📣 NotCSV - ¡Canal Secundario!
   / notcsv  
💸 Patreon :   / dotcsv  
👓 Facebook :   / ai.dotcsv  
👾 Twitch!!! :   / dotcsv  
🐥 Twitter :   / dotcsv  
📸 Instagram :   / dotcsv  

- ¡MÁS CIENCIA! --

🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:

http://scenio.es/colaboradores

show more

Share/Embed