Skip to content

intsystems/Oleinik-BS-Thesis

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

19 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Test status Test coverage Docs status

Название исследуемой задачи:Дистилляция знаний в глубоких сетях с применением методов выравнивания структур моделей
Тип научной работы:НИР
Автор:Михаил Сергеевич Олейник
Научный руководитель:кандидат физико-математических наук, Бахтеев Олег Юрьевич

Abstract

Дистилляция знаний позволяет повысить качество модели, называемой учеником, не увеличивая её число параметров, а используя модель большего размера, называемой учителем. Однако, в случае разных архитектур и несовпадения количества слоев у учителя и ученика, распространённые методы не применимы. Одним из подходов, который позволяет решать задачу для разных архитектур, является максимизация взаимной информации. Мы предлагаем улучшение этого подхода, которое позволит проводить дистилляцию и для моделей с разным количеством слоёв.

Software modules developed as part of the study

  1. A python code with all implementation here.
  2. A code with base experiment here. Can use colab.

Releases

No releases published

Packages

No packages published

Languages