Home
BERTology Meets Biology: Interpreting Attention in Protein Language Models (Paper Explained)
Yannic Kilcher
2 ก.ค. 2020
การดู 16,122 ครั้ง
SpineNet: Learning Scale-Permuted Backbone for Recognition and Localization (Paper Explained)
GShard: Scaling Giant Models with Conditional Computation and Automatic Sharding (Paper Explained)
AlphaFold2, OpenFold, Protein Language Models and Beyond | Nazim Bouatta
Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention (Paper Explained)
REALM: Retrieval-Augmented Language Model Pre-Training (Paper Explained)
กรณีศึกษาแบงก์ยักษ์ญี่ปุ่น ขาดทุนพันธบัตร 2 ล้านล้านเยน | DEEP Talk
3 BioTech ที่อาจเปลี่ยนโลกตลอดกาล | The Secret Sauce MEDLEY #72
(คลิปเต็ม) ศึก 2 ด้าน!!! ‘รัฐบาลเศรษฐา’ (27 พ.ค. 67) | ฟังหูไว้หู
Object-Centric Learning with Slot Attention (Paper Explained)
Exclusive Talk | อ่านเกม "เศรษฐา-ทักษิณ" เลือก ขุนพลเจาะข้อกฎหมาย | เข้มข่าวเย็น
DeepMind's AlphaFold 2 Explained! AI Breakthrough in Protein Folding! What we know (& what we don't)
วงการ AI ใส่กันนัว (GPT-4o vs Gemini)
Flow Matching for Generative Modeling (Paper Explained)
อังกฤษและปฐมเหตุของสงครามโลกครั้งที่3 : คนเคาะข่าว 28-05-67
NVAE: A Deep Hierarchical Variational Autoencoder (Paper Explained)
V-JEPA: Revisiting Feature Prediction for Learning Visual Representations from Video (Explained)
CS480/680 Lecture 19: Attention and Transformer Networks
Synthesizer: Rethinking Self-Attention in Transformer Models (Paper Explained)
เพื่อไทยแพ้ก้าวไกลทุกกลุ่ม! ทักษิณเร่งดึงบ้านใหญ่สู้ศึก ขั้วเก่าหมดทางแล้ว! | THE STANDARD NOW (HL)
EWSC: Generative AI for modeling single-cell responses, Fabian Theis