Skip to content

Solve NLP problem prompt engineering with chain-of-thougts

License

Notifications You must be signed in to change notification settings

TimkaMLG/Chain-of-Thoughts

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

27 Commits
 
 
 
 
 
 
 
 

Repository files navigation

Ссылка на краткое Ревью литературы

NLP problem prompt engineering with chain-of-thoughts

В исследовании рассматривается проблема решения арифметических задач при помощи языковых моделей. Предлагается метод chain-of-thoughts, который заключается в подаче промта-подсказки для модели, заставляющей модель проводить промежуточные размышления во время решения задачи. Также предлагается модификация метода self-consistency, предполагающий агрегацию нескольких различных решений задачи для повышения вероятности вывода правильного ответа.

Сетап эксперимента

Запуск эксперимента

Требуется установка библиотеки petals, это можно сделать командой !pip install -q petals Также потребуются torch, transformers, tqdm. Для этого поможет команда !pip install torch transformers tqdm

Весь код собран в юпитер ноутбуке main.ipynb в папке code.

Результаты

Результаты работы и предложения по дальнейшим продвижениям можно пронаблюдать в юпитер ноутбуке паралльно коду.

К сожеланию, собрать качественные результаты не удалось в связи с высокой загруженностью серверов инференса модели, однако эксперименты будет возможно воспроизвести если развернуть модель на своих серверах.

Трудности в процессе работы

Основной трудностью стала упомянутая выше высокая загруженность инференса. При этом даже при получении доступа время работы модели значительно затрудняет проведение качественных экспериментов.

Помимо данной проблемы возникли трудности при установке библиотеки petals из-за сложных зависимостей, которые она тянет за собой.

About

Solve NLP problem prompt engineering with chain-of-thougts

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published