@article { author = {Amintoosi, Mahmood}, title = {Combining a Regularization Method and the Optimal Brain Damage Method for Reducing a Deep Learning Model Size}, journal = {Journal of Machine Vision and Image Processing}, volume = {9}, number = {1}, pages = {31-45}, year = {2022}, publisher = {Iranian Society of Machine Vision and Image Processing}, issn = {2383-1197}, eissn = {2383-1197}, doi = {}, abstract = {One of the challenges of convolutional neural networks (CNNs), as the main tool of deep learning, is the large volume of some relevant models. CNNs, inspired form the brain, have millions of connections. Reducing the volume of these models is done by removing (pruning) the redundant connections of the model. Optimal Brain Damage (OBD) and Sparse Regularization are among the famous methods in this field. In this study, a deep learning model has been trained and the effect of reducing connections with the aforementioned methods on its performance has been investigated. As the proposed approach, by combining the OBD and regularization methods its redundant connections were pruned. The resulting model is a smaller model, which has less memory and computational load than the original model, and at the same time its performance is not less than the original model. The experimental results show that the hybrid approach can be more efficient than each of the methods, in the most tested datasets. In one dataset , with the proposed method, the number of connections were reduced by 76%, without sacrificing the efficiency of the model. This reduction in model size has decreased the processing time by 66 percent. The smaller the software model, the more likely it is to be used on weaker hardware, found everywhere, and web applications.}, keywords = {Convolutional Neural Networks,Network Pruning,Deep Learning,Sparse Optimization,Sparse Regularization}, title_fa = {ترکیب روش منظم‌سازی تُنُک و آسیب مغزی بهینه در کوچک‌سازی یک مدل یادگیری عمیق}, abstract_fa = {یکی از چالش‌های شبکه‌های عصبی پیچشی، به عنوان ابزار اصلی یادگیری عمیق، حجم زیاد برخی از مدل‌های مربوطه است. یک شبکه‌ی عصبی پیچشی به مثابه مدلی از مغز، متشکل از میلیون‌ها اتصال است. کاهش حجم این مدل‌ها از طریق حذف (هرس) اتصالات اضافی مدل انجام می‌شود که همانند یک آسیب مغزی است. دو روش منظم‌سازی تُنُک و آسیب مغزی بهینه از جمله مشهورترین شیوه‌های هرس مدل هستند. در این نوشتار با ترکیب این دو شیوه‌ نتایج بهتری در کاهش حجم مدل حاصل شده است. ابتدا با استفاده از روش انتقال یادگیری، یک مدل بزرگ شبکه‌های عصبی پیچشی برای شناسایی طبقات هدف، آموزش داده شد؛ سپس با روش‌های منظم‌سازی تُنُک و آسیب مغزی بهینه‌، اتصالات اضافی آن هرس شدند. نتایج آزمایشات نشان داده است که در بیشتر مجموعه دادگان مورد بررسی، اعمال شیوه‌ی ترکیبی منظم‌سازی تُنُک و آسیب مغزی بهینه نسبت به اعمال هر یک از آنها به صورت جداگانه کاراتر است. برای یکی از مجموعه دادگان مورد بررسی، با روش ترکیبی پیشنهادی‌  تعداد اتصالات مدل ۷۶ درصد کاهش داده شد، بدون آنکه کارایی آن کاهش یابد. این کاهش حجم مدل، زمان پردازشی را به یک سوم تقلیل داده است. کاهش حجم مدل می‌تواند امکان استفاده از آن در مرورگرها و سخت‌افزارهای ضعیف‌تر و همه‌گیرتر را تسهیل سازد.      (کد برنامه: https://github.com/mamintoosi/Reg-OBD-for-VGG-Pruning)}, keywords_fa = {Convolutional Neural Networks,Network Pruning,Deep Learning,Sparse Optimization,Sparse Regularization}, url = {https://jmvip.sinaweb.net/article_136180.html}, eprint = {https://jmvip.sinaweb.net/article_136180_061d5302dfa12482a7de3cacb4721336.pdf} }