The book provides a timely coverage of the paradigm of knowledge distillation—an efficient way of model compression. Knowledge distillation is positioned in a general setting of transfer learning, which effectively learns a lightweight student model from a large teacher model. The book covers a variety of training schemes, teacher–student architectures, and distillation algorithms. The book covers a wealth of topics including recent developments in vision and language learning, relational architectures, multi-task learning, and representative applications to image processing, computer vision, edge intelligence, and autonomous systems. The book is of relevance to a broad audience including researchers and practitioners active in the area of machine learning and pursuing fundamental and applied research in the area of advanced learning paradigms.
စီးရီး
Computers en technologie
ဤ E-စာအုပ်ကို အဆင့်သတ်မှတ်ပါ
သင့်အမြင်ကို ပြောပြပါ။
သတင်းအချက်အလက် ဖတ်နေသည်
စမတ်ဖုန်းများနှင့် တက်ဘလက်များ
Android နှင့် iPad/iPhone တို့အတွက် Google Play Books အက်ပ် ကို ထည့်သွင်းပါ။ ၎င်းသည် သင့်အကောင့်နှင့် အလိုအလျောက် စင့်ခ်လုပ်ပေးပြီး နေရာမရွေး အွန်လိုင်းတွင်ဖြစ်စေ သို့မဟုတ် အော့ဖ်လိုင်းတွင်ဖြစ်စေ ဖတ်ရှုခွင့်ရရှိစေပါသည်။
လက်တော့ပ်များနှင့် ကွန်ပျူတာများ
Google Play မှတစ်ဆင့် ဝယ်ယူထားသော အော်ဒီယိုစာအုပ်များအား သင့်ကွန်ပျူတာ၏ ဝဘ်ဘရောင်ဇာကို အသုံးပြု၍ နားဆင်နိုင်ပါသည်။