| О ЧЕМ ПОГОВОРИМ НА ВЕБИНАРЕ: | | | | | История появления больших языковых моделей (LLM) | | | | Что такое токены и токенизация: как текст превращается в данные | | | | Архитектура трансформеров: краткое знакомство с основными элементами | | | | Путь развития языковых моделей: "Attention Is All You Need", GPT-2, GPT-3 и ChatGPT | | | | Основы Prompt Engineering: как взаимодействовать с языковыми моделями | | | | Введение в Retrieval-Augmented Generation (RAG) и концепцию LLM-агентов | | | | | | Всем, кто хочет войти в IT через науку о данных, машинное обучение и глубокое обучение, но пока имеет только общее представление о направлении и хочет разобраться в теме. | | | | | | Алексей Ярошенко | - 5 лет в машинном обучении
- Последние 3 года обучал языковые модели и модели антиспама в VK
- Ментор в Made
- Лектор по машинному обучению в Высшей школе экономики (ФКН ИМШ)
- Преподаватель курсов по NLP и LLM в Mathshub
| | | | | | | Чтобы разобраться как работают большие языковые модели и познакомиться с машинным обучением. | | | | | |