На первой неделе мая 2026 года противостояние Илона Маска и Сэма Альтмана перешло из юридической плоскости в публичную войну заявлений. Маск в нескольких интервью и постах в X объявил, что его «обманули» при основании OpenAI, повторил тезис о том, что искусственный интеллект «может убить нас всех», и впервые открыто признал: его собственная компания xAI использовала технику дистилляции на моделях OpenAI при обучении ранних версий Grok. Эти три заявления, прозвучавшие в течение семи дней, вернули в центр глобальной AI-повестки сразу несколько неудобных вопросов — о безопасности моделей, о происхождении данных для обучения и о реальных мотивах основателей крупнейших AI-лабораторий мира. В этой статье разбираем, что именно сказал Маск, как на это реагирует индустрия, и что должны учитывать пользователи AI-сервисов в России и СНГ — в том числе те, кто работает с моделями через WebGPT.
Что произошло на первой неделе мая 2026?
Конфликт Маска и Альтмана не новый — судебный иск Маска против OpenAI и лично Альтмана тянется с 2024 года. Но первая неделя мая 2026-го стала особенной по плотности информационных событий. По данным подробного разбора MIT Technology Review, за семь дней Маск сделал три ключевых заявления, каждое из которых тянет на отдельный громкий заголовок.
Первое — Маск повторил, что его «развели» в момент основания OpenAI в 2015 году. По его версии, Альтман и команда убедили его финансировать организацию как некоммерческую исследовательскую лабораторию с открытым кодом, а затем тихо превратили её в коммерческого гиганта, фактически закрытого от внешнего научного сообщества. Маск настаивает, что без его первоначальных $44 миллионов и публичной поддержки OpenAI «никогда бы не появилась», и квалифицирует случившееся как нарушение учредительных договорённостей.
Второе — экзистенциальный аргумент. В нескольких выступлениях Маск повторил формулу, которую он использует уже почти десять лет: «AI может убить нас всех». На этот раз тон был резче — Маск говорил о вероятности «10–20%», что человечество не переживёт ближайшие два десятилетия из-за выхода ИИ из-под контроля. Этот тезис прозвучал на фоне новых отчётов о возможностях GPT-5.5 и Claude Opus 5, что добавило ему публичного веса.
Третье — самое неудобное лично для Маска. В интервью он фактически подтвердил, что ранние версии Grok обучались с использованием выходов моделей OpenAI — то есть применялась техника дистилляции. До этого xAI и сам Маск либо отрицали такие обвинения, либо обходили их молчанием. Признание перевернуло риторику: главный публичный критик OpenAI оказался её скрытым «учеником».
Хронология недели в одной таблице
- Понедельник, 27 апреля. Маск выкладывает в X длинный тред о «настоящей истории» OpenAI с цитатами из переписки 2015–2018 годов.
- Среда, 29 апреля. Подкаст-интервью, в котором Маск называет вероятность «AI-катастрофы» в 10–20% в горизонте 20 лет.
- Четверг, 30 апреля. На технической конференции Маск признаёт, что Grok-1 и Grok-1.5 использовали «синтетические данные, частично сгенерированные конкурентами».
- Пятница, 1 мая. MIT Technology Review публикует сводный материал, ставший главным источником ссылок для всех остальных СМИ.
- Воскресенье, 3 мая. OpenAI выпускает короткое заявление: «Мы изучаем правовые последствия признаний господина Маска».
Почему именно сейчас этот конфликт важен для рынка?
Кажется, что это «очередная драма Маска». Но важность недели определяется не самими словами, а контекстом, в который они попали. Во-первых, в апреле 2026-го регуляторы ЕС и США одновременно публиковали черновики обновлённых правил для frontier-моделей. Во-вторых, на рынке AI-инструментов начался жёсткий передел: OpenAI ускорила выпуск GPT-5.5, Anthropic анонсировала Claude Opus 5, DeepSeek представила V4, а Google усилил Gemini 2.5 Ultra. На фоне этих релизов любое заявление одного из ключевых игроков работает как удар по доверию конкурентов.
Для российских и СНГ-пользователей это особенно значимо, потому что доступ к топовым AI-моделям здесь чаще всего идёт через агрегаторы и прокси-сервисы — например, через WebGPT (ask.gptweb.ru). Любая регуляторная встряска на западных рынках в конечном счёте влияет на то, какие модели и в какой версии доходят до пользователей в Москве, Алматы, Минске и Тбилиси. Если завтра OpenAI или xAI попадут под более жёсткий комплаенс, это отразится на скорости появления новых моделей в агрегаторах и на стоимости их использования.
«История Маска и Альтмана — это уже не корпоративный спор, а тест на то, как индустрия в принципе будет управлять рисками frontier-AI», — пишет MIT Technology Review в материале от 1 мая 2026 года.
Что добавляет масла в огонь
- Маск параллельно судится с OpenAI в Калифорнии и продвигает свой иск против Microsoft как соучастника превращения OpenAI в «закрытую коммерческую структуру».
- xAI готовит выпуск Grok 4, и признание о дистилляции напрямую бьёт по позиционированию модели как «независимой и максимально правдивой».
- OpenAI тем временем формализует выход из non-profit-структуры, что технически делает старые претензии Маска ещё актуальнее.
Что значит «xAI дистиллирует модели OpenAI»?
Это самый технически содержательный пункт недели и одновременно самый болезненный для Маска. Дистилляция — это техника обучения, при которой меньшая или новая модель учится на ответах другой, более продвинутой модели. Грубо говоря, разработчик собирает огромный набор пар «вопрос — ответ», где ответы сгенерированы моделью-учителем (например, GPT-4 или GPT-4o), а затем тренирует свою модель повторять эти ответы. Это сильно ускоряет и удешевляет обучение, особенно если учитель уже хорошо «выровнен» под полезные и безопасные ответы.
Проблема в том, что условия использования OpenAI прямо запрещают использовать выходы её моделей для обучения конкурирующих систем. Об этом OpenAI публично говорила ещё в 2024 году, в том числе в адрес DeepSeek, обвинённой в аналогичной практике. Признание Маска фактически ставит xAI в один ряд с китайскими лабораториями, которые он сам недавно критиковал за «копирование американского AI».
Технические следствия признания
- Юридический риск для xAI. OpenAI получает основание для встречного иска или для блокировки доступа xAI к API.
- Репутационный удар по Grok. Модель, позиционируемая как «правдивая альтернатива», оказывается частично производной от того, что её создатель называет «опасным закрытым AI».
- Прецедент для индустрии. Если крупнейшие лаборатории признают, что обучают модели на выходах конкурентов, рушится миф об «оригинальных датасетах». Это аргумент для регуляторов в пользу обязательной паспортизации данных.
Как заявления Маска о рисках AI соотносятся с реальными подходами к безопасности?
Главный политический эффект недели — Маск снова возглавил публичный нарратив об экзистенциальных рисках. Но если посмотреть на то, что реально делают лаборатории, картина сложнее. По данным MIT Technology Review, в 2025–2026 годах OpenAI, Anthropic, Google DeepMind и xAI совокупно потратили на исследования alignment и безопасность более $4 млрд. Это не отменяет рисков, но говорит о том, что индустрия не игнорирует тему — даже если её темпы развития обгоняют темпы появления защитных механизмов.
На практике существует три параллельных подхода. Первый — внутренние red team и автоматическое тестирование на «опасные способности» (биориски, кибератаки, манипуляции). Второй — внешние аудиты вроде тех, что проводят AISI в Великобритании и аналогичные структуры в США. Третий — открытые инструменты механистической интерпретируемости вроде Goodfire Ember, которые позволяют заглядывать «внутрь» моделей. Маск в своих выступлениях этих деталей почти не касается — его риторика остаётся на уровне «AI убьёт нас всех», что хорошо работает в соцсетях, но плохо помогает в реальной политике безопасности.
«Заявление о 10–20% вероятности гибели человечества — это не научный прогноз, а риторический приём. Реальные расчёты рисков выглядят иначе и почти никогда не сводятся к одному числу», — отмечают эксперты, которых цитирует MIT Technology Review в анализе первой недели конфликта.
Где Маск, по мнению индустрии, прав
- Темпы развития frontier-моделей действительно опережают темпы появления регуляторных рамок.
- Концентрация AI-капитала в руках 4–5 компаний создаёт системные риски — в том числе политические.
- Прозрачность данных обучения остаётся слабым местом отрасли.
Где Маск противоречит сам себе
- Его собственная компания xAI выпускает Grok с минимумом ограничений и активно продвигает его как «менее цензурированную» альтернативу.
- xAI использовала дистилляцию моделей конкурентов, что само по себе ставит вопросы о безопасности и качестве данных.
- Параллельно Маск инвестирует в робототехнику и Neuralink — отрасли, чувствительные к рискам AI ничуть не меньше, чем чат-боты.
Как это повлияет на пользователей AI в России и СНГ?
Для пользователей в регионе важны не лозунги, а доступ к инструментам и предсказуемость их работы. Здесь конфликт Маска и Альтмана играет в нескольких слоях.
Слой первый — доступ. Большинство популярных моделей (GPT-5.5, Claude Opus 5, Gemini 2.5, Grok 4) официально недоступны в России. Пользователи работают с ними через агрегаторы, прокси и сервисы вроде WebGPT. Если конфликт приведёт к ужесточению лицензионных условий, это в первую очередь ударит именно по таким сервисам — их операторам придётся пересматривать договоры и тарифы. В WebGPT сейчас уже доступны и GPT-5.5, и Claude, и DeepSeek V4, и Gemini — но любая регуляторная встряска может изменить ассортимент.
Слой второй — цены. Если OpenAI начнёт более агрессивно блокировать дистилляцию и ужесточит политику API, цены на «не-OpenAI» модели могут подняться, потому что часть из них опирается на выходы GPT в обучении. Через WebGPT это можно отследить почти в реальном времени — если какой-то провайдер вдруг резко поднимает стоимость токенов, это сигнал, что в цепочке что-то поменялось.
Слой третий — доверие. Признания о дистилляции бьют по идее «независимости» моделей. Российским и СНГ-разработчикам, которые встраивают AI в продукты, теперь придётся серьёзнее думать о происхождении данных и о том, какие гарантии они дают своим пользователям.
Что конкретно стоит сделать прямо сейчас
- Не складывать яйца в одну корзину. Используйте несколько моделей одновременно — это можно делать через WebGPT, переключаясь между GPT, Claude, Gemini и DeepSeek в одном интерфейсе.
- Сохранять важные диалоги. Если завтра конкретная модель станет недоступна, у вас останется история запросов и ответов.
- Следить за обновлениями моделей. Релизы GPT-5.5, Claude Opus 5 и Grok 4 идут плотно — стоит читать сводные обзоры новых AI-моделей и сравнивать.
- Не строить продакшн на одной модели. Архитектурно разделяйте слой логики и слой LLM, чтобы переключение между провайдерами стоило часов, а не недель.
Когда ждать продолжения и развязки?
Развязка точно не наступит ни в мае, ни в июне 2026 года. Судебный процесс Маска против OpenAI и Microsoft рассчитан на годы. Но ближайшие три месяца, по оценке MIT Technology Review, дадут несколько сильных сигналов.
- Май 2026. Возможный встречный иск OpenAI к xAI на основе признания о дистилляции.
- Июнь 2026. Релиз Grok 4 и реакция рынка на то, как xAI объясняет происхождение датасетов.
- Июль 2026. Финализация европейских правил для frontier-моделей — там, скорее всего, появятся пункты, прямо инспирированные кейсом Маска и Альтмана.
Параллельно индустрия будет переживать цикл новых релизов: ожидается обновление DeepSeek, новая итерация Gemini и, возможно, открытая модель от Meta. Через WebGPT можно будет протестировать большинство из них в первые же дни после выхода — это даёт пользователям в России и СНГ редкую возможность не отставать от глобального рынка, несмотря на санкции и геоблокировки.
Что делать прямо сейчас, если вы используете AI каждый день?
Главное практическое следствие первой недели мая 2026 года — информационная гигиена становится частью работы с AI. Раньше можно было просто выбрать «самую сильную модель» и не думать о её происхождении. Теперь это уже не получится: каждая модель тянет за собой шлейф юридических, политических и этических вопросов.
Чек-лист на ближайшие 30 дней
- Сделайте список из 3 моделей, которые вы используете чаще всего, и одной запасной.
- Проверьте, доступны ли все они через одного провайдера (например, через WebGPT) — это упростит миграцию.
- Раз в неделю просматривайте новости о релизах и инцидентах AI-лабораторий, не доверяя одному источнику.
- Если вы используете AI в коммерческих продуктах, перечитайте Terms of Service провайдеров — особенно пункты о дистилляции и обучении на выходах.
- Подпишитесь на 1–2 авторитетных AI-издания. Хороший базовый набор — MIT Technology Review, The Verge, и сводные обзоры в еженедельном AI-дайджесте.
Часто задаваемые вопросы
Грозит ли xAI реальное юридическое преследование за дистилляцию?
Да, риск реальный, но не мгновенный. OpenAI уже намекнула, что «изучает правовые последствия» признания Маска. На практике это означает многомесячное юридическое расследование, в ходе которого OpenAI может потребовать данные о датасетах xAI. Если факт дистилляции подтвердится в суде, xAI грозит как минимум блокировка доступа к API OpenAI и компенсационные иски. Полный запрет работы маловероятен.
Стоит ли сейчас отказываться от Grok из-за конфликта?
Нет, отказываться от модели по политическим причинам не нужно — Grok остаётся технически конкурентным инструментом, особенно для работы с актуальной информацией из X. Но имеет смысл не делать его единственным инструментом и держать рядом GPT, Claude или DeepSeek. Через WebGPT можно держать сразу несколько моделей под рукой и переключаться между ними по задаче.
Действительно ли AI «может убить нас всех», как говорит Маск?
Серьёзные исследователи действительно обсуждают экзистенциальные риски, но почти никто не сводит их к одному числу вроде «10–20%». Это риторика, а не прогноз. Реальные риски сейчас концентрируются в более приземлённых областях: дезинформация, автоматизация кибератак, биориски и концентрация экономической власти. Эти угрозы заслуживают внимания, но они куда более управляемы, чем «AI-апокалипсис» в духе научной фантастики.
Как пользователю в России понять, что какая-то модель стала менее доступна?
Признаков несколько: рост стоимости токенов у вашего провайдера, удаление модели из списка доступных, заметное падение качества ответов или появление лимитов на длину контекста. В WebGPT и аналогичных агрегаторах такие изменения обычно становятся видны в течение 1–3 дней после изменений у первоисточника. Полезно периодически прогонять стандартный набор тестовых запросов и сверять результаты.
Где читать первоисточники по этой истории?
Базовый источник для всей недели — материал MIT Technology Review о первой неделе противостояния Маска и Альтмана. Он агрегирует ключевые цитаты, ссылается на оригинальные интервью и судебные документы. Для более глубокого технического разбора стоит дождаться публикаций исследователей AI-безопасности в ближайшие 2–3 недели — обычно после громких заявлений выходят содержательные академические комментарии.