Home
PEFT LoRA Explained in Detail - Fine-Tune your LLM on your local GPU
code_your_own_AI
28 มี.ค. 2023
การดู 63,451 ครั้ง
Stanford's new ALPACA 7B LLM explained - Fine-tune code and data set for DIY
Boost Fine-Tuning Performance of LLM: Optimal Architecture w/ PEFT LoRA Adapter-Tuning on Your GPU
Aligning LLMs with Direct Preference Optimization
รู้จัก OpenThaiGPT โมเดล LLM แบบ Open Source ที่เก่งภาษาไทยที่สุด
Generative AI Fine Tuning LLM Models Crash Course
[1hr Talk] Intro to Large Language Models
Understanding 4bit Quantization: QLoRA explained (w/ Colab)
RAG explained step-by-step up to GROKKED RAG sys
The End of Finetuning — with Jeremy Howard of Fast.ai
Jensen Huang จากเด็กล้างจาน สู่ซีอีโอ NVIDIA ผู้ชนะโลกใหม่ AI | The Secret Sauce EP.720
A Guide to Parameter-Efficient Fine-Tuning - Vlad Lialin | Munich NLP Hands-on 021
LoRA explained (and a bit about precision and quantization)
QLoRA—How to Fine-tune an LLM on a Single GPU (w/ Python Code)
LoRA & QLoRA Fine-tuning Explained In-Depth
Введение в большие языковые модели (LLM)
ฟังแล้วพูดตาม 150 ประโยคภาษาอังกฤษ 1 ชั่วโมงเต็ม (Part 1) | คำนี้ดี EP.1047
สอนวิธีเขียน Prompt ที่ดี ให้ ChatGPT ช่วยคุณทำงานได้จริง!
Low-Rank Adaptation - LoRA explained
How to Code RLHF on LLama2 w/ LoRA, 4-bit, TRL, DPO
Very Few Parameter Fine tuning with ReFT and LoRA