Advancements in Knowledge Distillation: Towards New Horizons of Intelligent Systems
Witold Pedrycz · Shyi-Ming Chen
জুলাই ২০২৩ · Studies in Computational Intelligenceকিতাপ 1100 · Springer Nature
ইবুক
232
পৃষ্ঠা
নমুনা
reportমূল্যাংকন আৰু পৰ্যালোচনা সত্যাপন কৰা হোৱা নাই অধিক জানক
এই ইবুকখনৰ বিষয়ে
The book provides a timely coverage of the paradigm of knowledge distillation—an efficient way of model compression. Knowledge distillation is positioned in a general setting of transfer learning, which effectively learns a lightweight student model from a large teacher model. The book covers a variety of training schemes, teacher–student architectures, and distillation algorithms. The book covers a wealth of topics including recent developments in vision and language learning, relational architectures, multi-task learning, and representative applications to image processing, computer vision, edge intelligence, and autonomous systems. The book is of relevance to a broad audience including researchers and practitioners active in the area of machine learning and pursuing fundamental and applied research in the area of advanced learning paradigms.
শৃংখলা
Computers en technologie
এই ইবুকখনক মূল্যাংকন কৰক
আমাক আপোনাৰ মতামত জনাওক।
পঢ়াৰ নির্দেশাৱলী
স্মাৰ্টফ’ন আৰু টেবলেট
Android আৰু iPad/iPhoneৰ বাবে Google Play Books এপটো ইনষ্টল কৰক। ই স্বয়ংক্রিয়ভাৱে আপোনাৰ একাউণ্টৰ সৈতে ছিংক হয় আৰু আপুনি য'তে নাথাকক ত'তেই কোনো অডিঅ'বুক অনলাইন বা অফলাইনত শুনিবলৈ সুবিধা দিয়ে।