The book provides a timely coverage of the paradigm of knowledge distillation—an efficient way of model compression. Knowledge distillation is positioned in a general setting of transfer learning, which effectively learns a lightweight student model from a large teacher model. The book covers a variety of training schemes, teacher–student architectures, and distillation algorithms. The book covers a wealth of topics including recent developments in vision and language learning, relational architectures, multi-task learning, and representative applications to image processing, computer vision, edge intelligence, and autonomous systems. The book is of relevance to a broad audience including researchers and practitioners active in the area of machine learning and pursuing fundamental and applied research in the area of advanced learning paradigms.
Série
Počítače a technika
Ohodnotit e‑knihu
Sdělte nám, co si myslíte.
Informace o čtení
Telefony a tablety
Nainstalujte si aplikaci Knihy Google Play pro Android a iPad/iPhone. Aplikace se automaticky synchronizuje s vaším účtem a umožní vám číst v režimu online nebo offline, ať jste kdekoliv.
Notebooky a počítače
Audioknihy zakoupené na Google Play můžete poslouchat pomocí webového prohlížeče v počítači.
Čtečky a další zařízení
Pokud chcete číst knihy ve čtečkách elektronických knih, jako např. Kobo, je třeba soubor stáhnout a přenést do zařízení. Při přenášení souborů do podporovaných čteček elektronických knih postupujte podle podrobných pokynů v centru nápovědy.