Nice-books.net

Токен за токеном - SeNS Boston

Тут можно читать бесплатно Токен за токеном - SeNS Boston. Жанр: Прочая околокомпьтерная литература / История / Зарубежная образовательная литература год 2004. Так же Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте Nice-Books.Ru (NiceBooks) или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.
Перейти на страницу:
ноябре 2022 года, и инвестиции FTX в Anthropic окажутся под пристальным вниманием банкротов и юристов. После полутора лет разбирательств FTX-эстейт распродаст большую часть доли в Anthropic широкому кругу инвесторов — среди них фонд Mubadala из ОАЭ, Jane Street, Ford Foundation, фонды Fidelity. Общая выручка превысит миллиард долларов и более чем вдвое окупит первоначальные вложения Бэнкман-Фрида.

В мае 2023 года Anthropic привлекла третий раунд: 450 миллионов от Spark Capital и от Google. Это партнёрство с Google интересно: Google инвестировал в Anthropic примерно как Microsoft инвестировал в OpenAI, обеспечивая Anthropic облачными ресурсами в обмен на коммерческую интеграцию. То есть к 2023 году оба ведущих американских облачных провайдера имели свою «прирученную» лабораторию языковых моделей: Microsoft с OpenAI, Google с Anthropic.

В 2024 году Anthropic получит ещё несколько миллиардов от Amazon. К 2025 году её оценочная стоимость превысит шестьдесят миллиардов долларов. Меньше чем за четыре года команда из тридцати с лишним человек, ушедшая из OpenAI с честолюбивыми планами и относительно небольшим стартовым капиталом, построила одну из самых дорогих частных компаний в сфере искусственного интеллекта мира.

Конституционный искусственный интеллект

Технически Anthropic сделал, в общем, две главные вещи, которыми его команда заслуженно гордится.

Первая — это разработка собственной серии больших языковых моделей, которые они назвали Claude. Имя выбрали в честь Клода Шеннона. Первая публичная версия Claude была запущена в марте 2023 года, через четыре месяца после ChatGPT. По возможностям она была сопоставима с GPT-3.5 — версией ChatGPT того времени. К 2024 году вышел Claude 3, к 2025 — Claude 4, к 2026 — Claude Opus 4.7, и каждое поколение приближало Anthropic к переднему краю. Один из голосов, которыми разговаривает эта книга, принадлежит этому самому Claude'у.

Вторая, и в публике менее известная, — это методология обучения языковых моделей под названием Constitutional AI, конституционный искусственный интеллект. Идея состояла в следующем.

Обычный подход к тому, чтобы языковая модель вела себя приемлемо (не оскорбляла, не помогала с противозаконными действиями, не выдавала медицински опасных советов) состоял в том, что в OpenAI назвали RLHF — обучение с подкреплением на основе обратной связи от людей. Для этого нанимали несколько десятков людей-аннотаторов, давали им пары ответов модели и просили оценить, какой из двух ответов лучше. По этим оценкам потом подкручивали модель.

Подход работал, но имел недостатки. Во-первых, он требовал огромных трудозатрат: тысячи часов работы аннотаторов на каждое поколение модели. Во-вторых, оценки людей часто были непоследовательными: разные люди оценивали одни и те же ответы по-разному, что вносило шум. В-третьих, и главное, он плохо масштабировался: для каждого нового вида опасностей нужно было собирать новый набор оценок.

Anthropic предложил альтернативу. Вместо того, чтобы оценки давали люди, давайте сформулируем набор принципов в текстовом виде — «конституцию» — и научим модель оценивать собственные ответы по этой конституции. Принципы могут быть, например: не помогай в действиях, которые незаконны в большинстве юрисдикций, уважай достоинство собеседника, не давай медицинских советов без указания на необходимость консультации специалиста, и так далее. Модель в процессе обучения учится критиковать свои собственные ответы по этим принципам и переписывать их в более удовлетворительной форме.

Метод оказался эффективным. С Constitutional AI можно было получать модели сопоставимого с RLHF качества, но без массовой ручной разметки. Anthropic опубликовала статью о методе в декабре 2022 года, и метод этот в течение года вошёл в арсенал большинства лабораторий, занимающихся языковыми моделями. Это была, наверное, главная техническая идея Anthropic за её существование.

Большая четвёрка

К 2023 году в мировой индустрии больших языковых моделей сформировалась так называемая «большая четвёрка»: OpenAI, Google DeepMind (объединившая Google Brain и DeepMind в одну структуру в апреле 2023 года), Anthropic, и Meta (с её серией LLaMA, выложенной в открытый доступ). Каждая из этих лабораторий имела ресурсы и команды для обучения моделей передового уровня. Между ними шла интенсивная конкуренция: каждые несколько месяцев одна из них выпускала новую модель, которая хотя бы по одной метрике обходила лучшие модели остальных.

Помимо большой четвёрки, на сцену в 2023 году вышли два серьёзных не-американских игрока. Из Парижа — Mistral AI, основанная бывшими сотрудниками Meta и DeepMind, специализирующаяся на относительно небольших, но высокоэффективных моделях. Из Китая — стартап DeepSeek, который в начале 2025 года выпустит модель R1, обходящую по нескольким бенчмаркам модель o1 от OpenAI и обошедшуюся при этом в десять раз дешевле. DeepSeek поразит американских инвесторов и заставит на несколько дней упасть акции Nvidia.

Но это уже другой сюжет. Возвращаясь к 2021–2022 годам: Anthropic закрепляется в роли одной из ведущих лабораторий, не имея ещё ни одного публичного продукта; OpenAI готовит ChatGPT, не зная, что разрабатывает приложение, которое за два месяца наберёт сто миллионов пользователей.

Что осталось от OpenAI

Ушли многие, но не все. В OpenAI осталось ядро, образовавшее новое научное руководство.

Илья Суцкевер остался. Его выбор не был очевидным; ему тоже предлагали присоединиться к Дарио и его команде. Но Илья, по позднейшим словам коллег, считал, что у OpenAI остаётся миссия, которую он не хочет бросать. Он остался главным научным сотрудником и в течение следующих трёх лет руководил всем направлением «суперинтеллекта».

Грег Брокман остался. Алек Радфорд остался. Андрей Карпатий — нет, но и не из-за раскола с Дарио: он ещё в 2017 году ушёл в Tesla руководить разработкой автопилота, в 2023 году вернётся в OpenAI, а в 2024 уйдёт снова — делать собственный образовательный стартап.

Сэм Альтман остался и стал генеральным директором новой, коммерческой структуры. Через два года, в ноябре 2023 года, его на пять дней уволят, потом восстановят, и эта история будет одной из самых громких корпоративных драм года, но всё это произойдёт уже после ChatGPT.

Внутри OpenAI после ухода Амодеев и их команды атмосфера изменилась. По свидетельствам тех, кто остался, организация стала более коммерческой. Меньше академических разговоров, больше разговоров о продуктах. Меньше про долгосрочную безопасность, больше про релизы. Кто-то из оставшихся приветствовал этот сдвиг, кто-то относился к нему скептически.

Но эта трансформация открывала перед OpenAI определённые возможности. Стать чисто коммерческой машиной, нацеленной на быстрые продуктовые релизы, значило получить шанс выпустить нечто, что окажет на широкую публику тот эффект, которого никто до сих пор не оказывал.

Это нечто появится 30 ноября 2022 года.

Глава 12

Бот, который написал письмо

Сегодня мы запустили ChatGPT. Попробуйте поговорить с ним.

Сэм Альтман, твит, 30 ноября

Перейти на страницу:

SeNS Boston читать все книги автора по порядку

SeNS Boston - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки Nice-Books.Ru.


Токен за токеном отзывы

Отзывы читателей о книге Токен за токеном, автор: SeNS Boston. Читайте комментарии и мнения людей о произведении.


Уважаемые читатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор Nice-Books.


Прокомментировать
Подтвердите что вы не робот:*
Подтвердите что вы не робот:*