English
Alles
Zoeken
Afbeeldingen
Video's
Korte filmpjes
Kaarten
Nieuws
Copilot
Meer
Shopping
Vluchten
Reizen
Notitieboek
Ongepaste inhoud melden
Selecteer een van de onderstaande opties.
Niet relevant
Aanstootgevend
18+
Kindermisbruik
Lengte
Alles
Kort (minder dan 5 minuten)
Gemiddeld (5-20 minuten)
Lang (langer dan 20 minuten)
Datum
Alles
De afgelopen 24 uur
De afgelopen week
De afgelopen maand
Het afgelopen jaar
Resolutie
Alles
Lager dan 360p
360p of hoger
480p of hoger
720p of hoger
1080p of hoger
Bron
Alles
MySpace
Dailymotion
Metacafe
Prijs
Alles
Gratis
Betaald
Filters wissen
Veilig Zoeken:
Gemiddeld
Streng
Gemiddeld (standaard)
Uit
Filter
7:40
Speculative Decoding: 3× Faster LLM Inference with Zero Quality Loss
709 weergaven
4 maanden geleden
YouTube
Tales Of Tensors
14:37
Understanding Speculative Decoding: Boosting LLM Efficiency and Speed
469 weergaven
6 apr. 2025
YouTube
MLWorks
2:42
AI Explained: Speculative decoding with vLLM
1,1K weergaven
2 maanden geleden
YouTube
Red Hat
12:46
Speculative Decoding: When Two LLMs are Faster than One
32,9K weergaven
12 okt. 2023
YouTube
Efficient NLP
1:23
Speculative Speculative Decoding for Faster LLM Inference
2,1K weergaven
2 maanden geleden
YouTube
Rajistics - data science, AI, and machine learning
7:06
The Secret to Faster LLMs: How Speculative Decoding Works
7 weergaven
5 maanden geleden
YouTube
Zaharah
12:18
This Simple Trick Made ALL LLMs 2x Faster
41K weergaven
1 maand geleden
YouTube
bycloud
9:39
Faster LLMs: Accelerate Inference with Speculative Decoding
22,1K weergaven
11 maanden geleden
YouTube
IBM Technology
0:46
Speculative Decoding Turbocharge Your LLM Inference! #ai, #llm, #inference, #optimization
67 weergaven
3 maanden geleden
YouTube
The Code Architect
17:56
Behind the Stack, Ep 11 - Speculative Decoding
70 weergaven
6 maanden geleden
YouTube
Doubleword
5:04
Speculative Decoding: 2-3x Faster LLMs for Free
1 weergaven
1 maand geleden
YouTube
The AI Century
6:53
How Speculative Decoding Makes LLMs 2.5x Faster (The Secret to Faster AI)
159 weergaven
7 maanden geleden
YouTube
FranksWorld of AI
4:18
LK Losses: Optimizing Speculative Decoding
60 weergaven
2 maanden geleden
YouTube
AI Research Roundup
1:05
What is Speculative decoding - Speculative decoding Explained #generativeai #RAG #ai #llm
309 weergaven
1 maand geleden
YouTube
Med Bou | AI Tutorials
11:34
Generate 10 Tokens At Once - Faster LLM INFERENCE - AdaSPEC - Speculative Decoding Improvement
505 weergaven
6 maanden geleden
YouTube
Vuk Rosić
SLED: A Speculative LLM Decoding Framework for Efficient Edge Serving | Proceedings of the Tenth ACM/IEEE Symposium on Edge Computing
2 maanden geleden
acm.org
29:48
Lossless LLM inference acceleration with Speculators
637 weergaven
5 maanden geleden
YouTube
Red Hat
8:26
Beyond Speculative Decoding: Jacobi Forcing in LLMs
274 weergaven
2 maanden geleden
YouTube
Tales Of Tensors
3:42
AdaSPEC: Selective KD for Faster LLM Spec Decoding
6 weergaven
5 maanden geleden
YouTube
AI Research Roundup
26:06
LLM Optimization Lecture 5: Continuous Batching and Piggyback Decoding
1,4K weergaven
5 maanden geleden
YouTube
Faradawn Yang
40:19
Speculation is all you need: Intro to Speculative Decoding for High Performance Inference
1 weergaven
1 maand geleden
YouTube
Modal
4:09
No-Regret Drafter Selection for LLM Spec-Decoding
26 weergaven
6 maanden geleden
YouTube
AI Research Roundup
5:16
LLM System Design Interview: How to Optimise Inference Latency
520 weergaven
5 maanden geleden
YouTube
Peetha Academy
56:57
From GPU Bottlenecks to Smooth Chat: Cost-Efficient Architectures for LLM Inference :: Eshcar Hillel
79 weergaven
2 maanden geleden
YouTube
CoreCppIL
8:10
The Engineering Behind Instant AI Responses
2,5K weergaven
4 maanden geleden
YouTube
PY
41:10
Inference Office Hours with SGLang: Performance Optimizations for LLM Serving
1,7K weergaven
3 maanden geleden
YouTube
NVIDIA Developer
4:13
Recurrent Transformer: Better LLM Decoding
31 weergaven
1 week geleden
YouTube
AI Research Roundup
7:46
🚀 LLM INFERENCE 15% FASTER? AdaSPEC Explained
21 weergaven
6 maanden geleden
YouTube
LoganDemia
3:59
ARBITRAGE: Faster LLM Reasoning via Routing
29 weergaven
5 maanden geleden
YouTube
AI Research Roundup
2:27:59
COLING 2025 Tutorial: Speculative Decoding for Efficient LLM Inference
398 weergaven
23 jan. 2025
bilibili
云安Ann
Meer weergeven
Meer zoals dit
Feedback