Written by 10:12 Крипто Views: 8

Как искусственный интеллект изменит реальный мир

ChatGPT от OpenAI показал невиданную скорость проникновения в массы: первый миллион пользователей за первые 5 дней, 100 миллионов пользователей спустя 2 месяца после запуска. Сайт сервиса посетили более миллиарда раз, в январе 2023 года компания Microsoft проинвестировала в компанию еще $10 млрд при оценке в $29 млрд. Помешательство? Нет, потому что основное помешательство — только впереди. Руслан Юсуфов, футуролог, основатель и управляющий партнер компании MINDSMITH, поделился своим видением развития ИИ.

Для начала давайте разберемся, с чем мы имеем дело. ChatGPT — это чат-бот, построенный на семействе больших языковых моделей GPT-3. Большие языковые модели — это вид моделей машинного обучения. У GPT-3 175 млрд параметров, у PaLM (аналога Google) — 540 млрд параметров. Раз уж нейросети работают аналогично структуре нашего мозга, можно провести соответствующую параллель: в человеческом мозге 80-90 млн нейронов, соединенных 100 трлн синапсов. Параметры модели могут изменяться в процессе обучения модели; чем больше параметров, тем более «умной» является модель: 8 млрд параметров достаточно для понимания языка, арифметических вычислений и ответов на вопросы, 60 млрд — для переводов, подведения итогов, написания программного кода; 540 млрд — для общих знаний об окружающем мире, семантического разбора, понимания прочитанного, объяснения шуток и пословиц, ведения диалогов, распознавания шаблонов, выстраивания причинно-следственной связи.

GPT-3 тренировалась на датасете в 40 терабайт текста из веб-страниц, статей, блогов, книг — это в 1000 раз больше, чем текста в англоязычной Википедии. Если упрощать описание тренировки, сначала модели дается запрос, модель выдает несколько ответов, а затем человек ранжирует эти ответы от хорошего к плохому; ответы и их оценка возвращаются модели, и это происходит тысячи и тысячи раз.

То, что один человек определит как «хороший» ответ, не обязательно будет «хорошим» для другого. И здесь кроется первая фундаментальная проблема: будущее человечества пишется несколькими тысячами исследователей и разработчиков без публичного контроля в рамках коммерческой структуры, с большими опасениями относительно этических аспектов и последствий.

Разберем по пунктам.

1. Качество и мотивация «писателей будущего» поднимает новые вопросы. Чтобы тренировать модель и размечать датасеты, OpenAI уже наняла более 1000 подрядчиков из Латинской Америки и Восточной Европы, а также использует кенийских рабочих за $2 в час для фильтрации травмирующего контента. Это очень похоже на колониальные модели предыдущих десятилетий: только теперь дешевая рабочая сила не собирает айфоны на фабрике Foxconn, не отшивает футболки в текстильных потогонках и не добывает редкоземельные металлы на ручных шахтах кобальта (ручных, потому что там копают руками), а формирует большие языковые модели для американских компаний.

2. Коммерческие компании преследуют единственную цель — извлекать прибыль и растить капитализацию. Продукт, нацеленный на потребителя из «золотого миллиарда», может просто не учитывать интересы неплатежеспособного большинства. Ментальное здоровье модераторов социальных сетей не имеет значения. Рабский и детский труд в Африке не имеет значения. Важны только проблемы платящих потребителей и инвесторов из «золотого миллиарда». Это для них в советах директоров собирается достаточное diversity, а внешняя коммуникация тщательно корректируется с поправкой на все возможные гендеры, чтобы случайно не попасть под раздачу культуры отмены. Мы видим это в ChatGPT, как в зеркале: на вопрос «что нужно улучшить в белых людях» чат-бот дает ответ по пунктам, на аналогичный вопрос про людей с темным цветом кожи — отказывается, ссылаясь на морально-этические нормы. Почему я рассуждаю об этике в этом примере? А вы просто добавьте эту специю к системе принятия решений по поводу выдачи кредита, трудоустройства или записи ребенка в детский сад.

3. Коммерческие компании лучше заплатят штраф завтра (или даже никогда), чем сегодня потеряют конкурентное преимущество. В середине марта Microsoft (напомню, главный инвестор в OpenAI) сократила всю свою команду по этике, которая обучала ИИ-продукты социальной ответственности. Работа этих людей была связана с формированием правил в тех областях, в которых еще нет регулирования, но техногиганты, похоже, даже громко высказываясь о глобальном влиянии ИИ на человечество, неспособны брать на себя дополнительную ответственность и понимают только язык и кнут регулятора. Такая вот капиталистическая дихотомия.

Конечно, с точки зрения денег все понятно: Google и Baidu дышат в затылок, а цена ошибки — миллиарды, поэтому задающая неудобные вопросы и потенциально связывающая по рукам этическая команда вообще некстати. Так, в феврале Alphabet Inc. потеряла $100 миллиардов капитализации из-за ошибки при запуске ИИ чат-бота Bard: на демонстрации в Париже Bard неправильно ответил на вопрос о новых открытиях космического телескопа «Джеймс Уэбб». Акции Baidu упали на 10% ($4 млрд) на фоне неубедительной мартовской демонстрации чат-бота Ernie. Раз «малышам» вроде OpenAI ошибки простительны, а техногигантам могут стоить миллиарды капитализации, у «малышей» больше смелости и права на ошибку. В такой ситуации побеждать будут не самые технологичные, а самые смелые, быстрые и способные менять существующие бизнес-модели. Кстати, разворачивающийся финансовый кризис на фоне краха Silicon Valley Bank — время возможностей для технологических гигантов: можно за бесценок скупить пачку ИИ-стартапов.

Искусственный интеллект ставит по угрозу традиционные бизнес-модели

Google вынуждена менять свою бизнес-модель, построенную на продаже рекламы. OpenAI в этом смысле проще, она меняет чужие модели, предоставляя необходимую инфраструктуру. ChatGPT уже интегрирован в Microsoft Office, Teams Premium, Linkedin (также принадлежит Microsoft), Snapchat, Slack и Zapier. Фотосток Shutterstock продает сгенерированные при помощи DALL·E 2 изображения. Пока интеграции происходят на уровне расширения принятой модели (Shutterstock как продавал изображения, так и продает изображения), но в ближайшие годы мы увидим принципиально новые подходы к созданию и дистрибуции контента — благодаря возможности создавать по умолчанию локализованный, универсальный, персонализированный и даже гиперкастомизированный контент — причем в беспрецедентных объемах. Разберем на примере Голливуда.

1. Контент будет персонализированным. Десятки разных макро-аудиторий получат свою версию условного человека-паука. Для республиканцев он будет бегать с пистолетом, для демократов — курить легализованную марихуану, для феминисток — яростно отстаивать гражданские права, для религиозных — руководствоваться словом Божьим, для любителей заговоров — наматывать паутину на вышки 5G и так далее, причем все это в десятках разных версиях одного фильма.

2. Контент будет локализованным сразу в момент производства. В китайской версии будет играть один актер, в европейской — другой, в американской — третий (с поправкой на требуемый цвет кожи и принадлежность к меньшинствам). Кроме разных актеров будет акцент на культурные ценности: в Канаде человек-паук будет нетрадиционной сексуальной ориентации, в России — отцом-патриархом семейства. Кроме этого, контент будет производиться сразу на целевых языках — без необходимости дубляжа, с идеальным синхроном с движениями губ персонажей.

3. Фильм будет выходить сразу для всех возрастных аудиторий. Несмотря на основную сюжетную линию, контент 6+ будет отличаться от 18+ диалогами, сценами и второстепенными героями.

4. Со временем контент будет становиться все более гиперкастомизированным. В зависимости от профиля зрителя и сценарий, и видеоконтент будут генерироваться на лету. Мы получим бесконечные персональные сериалы на любую тему — с обратной связью от зрителя. Добро пожаловать в эхо-камеру от нетфликса с беспрецедентными возможностями по формированию общественного мнения и продвижению тех или иных ценностей.

5. Известные актеры перестанут сниматься и начнут лицензировать свой образ. Да что там, не только актеры, но и узнаваемые люди, виртуальные аватары и люди-бренды с миллионами подписчиков — сама профессия актера будет менее востребована.

Да, дорога к славе через Голливуд со временем закроется и для актеров, и для сценаристов. Зато понадобятся креативные директора (для валидации идей), продюсеры (для извлечения денег из инвесторов) и менеджеры (для запуска и проработки многочисленных суб-франшиз). Изменится даже индустрия пиратства, ведь пиратить придется не контент, а модели для производства контента.

Искусственный интеллект позволит людям казаться умнее

ChatGPT уже сдал MBA экзамен в бизнес-школе Wharton, экзамен на получение медицинской лицензии, а значительное число студентов Стэнфорда использовали ChatGPT для сдачи домашних работ и экзаменов. Шокирует? Посмотрите результаты экзаменов, которые может сдавать GPT-4 (мультимодальная большая языковая модель, способная принимать не только текст, но и изображения), включая продвинутый экзамен на сомелье, экзамены по истории искусств, физике и статистике.

Любой вызов, который бросает генеративный искусственный интеллект, требует ответа. ChatGPT научился писать эссе за студентов — разработчики предложили инструменты для проверки текста на предмет участия в его написании искусственного интеллекта. Практически сразу пользователи научились просить ChatGPT написать текст таким образом, чтобы он проходил проверку. Это наглядный пример попытки противодействовать новым парадигмам старыми инструментами. Кажется, пора признать, что мир теперь устроен по-другому, ретроградам в нем не место, и начать пересборку придется со своего собственного майндсета.

(Visited 8 times, 1 visits today)
Close