Interstorm обучающий курс
ВВЕДЕНИЕ В ГЕНЕРАТИВНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Генеративный ИИ - это технология машинного обучения, которая позволяет компьютерным системам генерировать новый контент на основе обучающих данных.

В отличие от традиционных алгоритмов, генеративный ИИ может создавать совершенно новые, уникальные тексты, изображения, аудио, видео и другие данные.


Примеры популярных генеративных моделей:


  • DALL-E 2 - генерация изображений
  • Stable Diffusion - синтез изображений на основе текстового описания
  • ChatGPT - генерация текстов на естественном языке, таких как статьи, диалоги, код программ по текстовому описанию
  • GitHub Copilot - генерация программного кода на основе имеющихся фрагментов и комментариев
  • Replika - создание диалогов с виртуальным собеседником на любые темы, симуляция живого общения.

Обзор применения генеративного ИИ

Приложения на основе генеративного искусственного интеллекта стремительно набирают популярность, как когда-то мобильные приложения в 2010 году или интернет в 2001.

Мы наблюдаем настоящий технологический сдвиг, который происходит раз в 10 лет.


В 2023 году в России проводился расчет Индекса интеллектуальной зрелости отраслей экономики, секторов социальной сферы и системы государственного управления
  • Проведен опрос более 4 000 отраслевых организаций
  • Свыше 15 федеральных органов исполнительной власти выступили партнерами исследования
  • Оценка проводилась по 33 показателям и 18 приоритетным отраслям.

Результаты опроса:
49,6% организаций
Внедрили ИИ-технологии в лидирующих отраслях — финансовых услугах, секторе ИКТ, здравоохранении
в 5-6 раз
Внедрение ИИ увеличило скорость и качество работ в отдельных компаниях
Согласно прогнозам, генеративный ИИ увеличит мировой валовой внутренний продукт (ВВП) на 7 триллионов долларов в течение следующих 10 лет (Goldman Sachs 2023). Генеративный ИИ можно
применять во всех сферах бизнеса, включая инжиниринг, маркетинг, обслуживание клиентов, финансы и продажи.

Прикладное применение генеративного ИИ

Подробные кейсы применения мы рассмотрим в отдельном уроке, давайте сейчас кратко расмотрим направления, где технология может быть полезна.

Ключевые концепции генеративного ИИ

Давайте рассмотрим несколько существующих концепций, которые позволяют нейросетям давать реалистичные и содержательные ответы на запросы пользователей. Это позволит лучше понять, как создаются и обучаются модели генеративного ИИ.
Нажмите знак "+" рядом с разделом, чтобы увидеть примеры.
Пример - приложение Replika для создания виртуальных собеседников. Система обучается на диалогах с реальными людьми, получая подкрепление за естественность беседы.
Пользователь получает реалистичный диалог, ощущение общения с живым существом.

»
На практике ключевые концепции генеративного ИИ проявляются в возможностях генерации реалистичного, соответствующего описанию контента - текстов, изображений, видео, аудио и т.д.

Как устроен генеративный ИИ

Фундаментальные модели (FM)
Генеративный ИИ базируется на обученных на огромных данных языковых моделях. Их называют базовыми моделями или фундаментальными моделями.
FM - это базовые нейросети, обученные предсказывать связи между словами и изображениями. Каждое слово и изображение при этом представлено в виде вектора чисел. Чем ближе векторы двух слов, тем теснее их связь.

Простой пример - предсказание следующих слов в предложении. Если есть слово «кот», модель на основе близости векторов слов предложит варианты типа «рыжий», «мурчит», «играет». Но никогда не предложит слово из совершенно другой области, допустим, «интегроконкатенация». Так FM учится устанавливать смысловые связи и анализировать контекст.

То есть благодаря векторному представлению слов и принципу предсказания наиболее похожих векторов, модели начинают как бы "понимать" общий контекст и смысл.
С их помощью, в отличие от традиционного подхода, можно адаптировать одну универсальную модель для решения разных задач вместо обучения отдельной модели для каждой задачи.
Большие языковые модели (LLM)
GPT, BERT, Gigachat и другие - это глобальные нейронные сети, которые способны генерировать тексты, описывать смысловые связи в языке. Они обучены на сверхшироких корпусах интернет-текстов, например, всей Википедии (более 20 млрд слов).
Они могут предсказывать следующее слово в тексте исходя из предыдущих слов и всего контекста, что позволяет им генерировать новые осмысленные тексты.

Обучение LLM и FM
Задача обучения моделей экстремально ресурсоёмкая. Требуются миллиарды текстовых и визуальных примеров, мощности суперкомпьютеров, месяцы расчётов. В результате оптимизируются сотни миллиардов весов-параметров модели так, чтобы она наилучшим образом предсказывала слова и изображения "на лету".

Давайте разберём этот процесс подробнее.
В основе лежат два ключевых этапа:
  1. Предобучение фундаментальной модели. Это начальная тренировка на огромных датасетах для извлечения базовых знаний о мире и языке.
  2. Дообучение (fine-tuning) - адаптация уже предобученной модели под конкретные задачи.
Например, создатели GPT-3 и DALL-E сначала предобучили универсальную текстовую и визуальную модель на миллиардах параметров текстов, картинок.
А затем эти базовые модели дообучались отдельно под генерацию текстов и под генерацию картинок по тексту. Так появились отдельные специализированные решения.

Почему важно дообучение? Если модель предобучена только на общих данных, она будет допускать логические ошибки в конкретных предметных областях.
А fine-tuning позволяет адаптировать уже извлечённые базовые знания под нужный случай применения - медицина, юриспруденция, кодирование и т.д.



»
Генеративный ИИ - это компьютерная система на основе больших языковых моделей, построенных на фундаментальных моделях, обученных предсказывать и генерировать новые осмысленные тексты и изображения, похожие на те, на которых она тренировалась.
напишите нам
Close
Если у вас есть вопрос, просто напишите свое имя и как с вами связаться

Посмотрите ИИ-решения в действии

Интеллектуальные сервисы Interstorm оптимизируют процессы, освобождая время для развития бизнеса. Без сложных настроек и интеграций.