Google Chrome без уведомления скачивает на устройства пользователей мультимодальную ИИ-модель Gemini Nano размером около 4 гигабайт. Это означает, что миллионы людей по всему миру — включая пользователей из России и СНГ — обнаруживают на своих SSD непрошеный файл с весами нейросети, который браузер загружает в фоновом режиме через компонент «Optimization Guide On Device Model». В этой статье разбираем, как именно это происходит, почему вокруг ситуации поднялась волна обсуждений на Lobsters и Hacker News, чем тихая установка опасна для приватности и трафика, и как удалить модель за пару минут через служебную страницу chrome://components.
Что произошло: Chrome скачивает Gemini Nano без явного согласия
Независимый исследователь, ведущий блог That Privacy Guy, опубликовал детальный разбор поведения свежих сборок Chrome (начиная с версии 127 и далее). Согласно оригинальному расследованию That Privacy Guy, браузер автоматически инициирует загрузку весов модели Gemini Nano размером порядка 4 ГБ — без всплывающего окна, без чек-бокса в настройках и без записи в стандартный экран приветствия после установки.
Загрузка маскируется под обычное обновление компонентов: Chrome отображает её точно так же, как обновление баз для Safe Browsing или списков для блокировщика рекламы. На практике же речь идёт о полноценной нейросети с миллиардами параметров, которая после распаковки занимает значимый кусок диска и при первом запуске может потребовать длительной инициализации WebGPU.
Тема быстро попала в топ обсуждений в разделе AI на Lobsters и собрала десятки комментариев от системных администраторов, которые жаловались на массовый рост трафика в корпоративных сетях после очередного автообновления Chrome. По их словам, модель скачивается даже на машинах, где встроенные AI-функции никогда не использовались и не вызывались ни одним сайтом.
«Здесь нет никакого opt-in, никакого уведомления и никакого очевидного способа отказаться. Браузер сам решает, что вашему компьютеру нужна большая языковая модель», — пишет автор That Privacy Guy в своём расследовании.
Что такое Gemini Nano и зачем Google встроил его в браузер?
Gemini Nano — самая компактная версия семейства моделей Google Gemini, оптимизированная для запуска на устройстве пользователя. В отличие от Gemini Pro и Ultra, которые работают через облачный API, Nano предназначена для локального вывода: на мобильных процессорах Pixel, в Chrome через WebGPU и в десктопных приложениях через библиотеку MediaPipe.
Google продвигает Nano как фундамент для так называемых Built-in AI APIs — нового класса браузерных интерфейсов, которые дают веб-разработчикам доступ к LLM прямо со страницы. Согласно официальной документации Chrome Built-in AI, в браузер постепенно встраиваются:
- Prompt API — универсальный интерфейс для произвольных промптов;
- Summarizer API — суммаризация текста на странице;
- Translator API — локальный перевод без отправки данных в облако;
- Writer и Rewriter API — генерация и переписывание текстов;
- Language Detector API — определение языка фрагмента.
Идея в основе разумная: если модель уже на устройстве, любой сайт может вызывать ИИ без сетевых запросов, без счёта за токены и без передачи данных третьим сторонам. Но реализация развернулась в обратную сторону — пользователь оплачивает место на диске и трафик заранее, ещё до того, как хоть один сайт попросит у браузера ИИ-функцию.
Почему это важно для пользователей в России и СНГ?
Для российской и СНГ-аудитории история с тихой установкой Gemini Nano стоит остро по сразу нескольким причинам — и каждая из них усиливается санкционными и инфраструктурными ограничениями.
Во-первых, трафик. По данным аналитических панелей операторов, средний пользователь LTE-тарифа в РФ ежемесячно расходует 15–25 ГБ. Внеплановая загрузка 4 ГБ — это от 16 до 27% месячного пакета. Если ноутбук подключён к смартфону через раздачу, баланс может улететь в минус за один тихий апдейт Chrome, причём пользователь даже не поймёт, на что ушли деньги.
Во-вторых, диск. Массовый сегмент ноутбуков, продаваемых в РФ и Казахстане в 2025–2026, — это машины с SSD на 256 ГБ, а нередко и на 128 ГБ. Браузер, занимающий после установки модели 5–6 ГБ, конкурирует за место со Steam, рабочими файлами и резервными копиями iCloud/OneDrive.
В-третьих, доступ к самим AI-функциям ограничен. Google активно режет работу Built-in AI APIs из российских IP — даже если модель скачана, телеметрия и часть служебных вызовов идут через серверы, заблокированные Роскомнадзором или отвечающие 403 для AS-сетей РФ. Получается худший из миров: место занято, трафик потрачен, а функция не работает.
Именно поэтому сценарий «использовать ИИ через облачный сервис, а не через браузер» для пользователей из России выглядит куда практичнее. В WebGPT доступ к Gemini, ChatGPT, Claude и DeepSeek работает напрямую через ru-инфраструктуру, не зависит от того, что Google решил подгрузить в Chrome, и не съедает место на жёстком диске.
Как проверить, установлена ли модель на вашем устройстве?
Хорошая новость: проверка занимает меньше минуты, и для этого не нужны сторонние утилиты. Chrome предоставляет служебную страницу управления компонентами, на которой видно всё установленное.
- Откройте новую вкладку и введите в адресной строке
chrome://components/. - Прокрутите список до строки Optimization Guide On Device Model.
- Если рядом указана версия в формате
2024.x.x.xили новее и статус «Up-to-date» — модель уже скачана. - Чтобы посмотреть фактический размер на диске, откройте папку профиля Chrome:
- Windows:
%LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel\ - macOS:
~/Library/Application Support/Google/Chrome/OptGuideOnDeviceModel/ - Linux:
~/.config/google-chrome/OptGuideOnDeviceModel/
- Windows:
- Внутри вы увидите файлы с расширением
.binи.tflite— это и есть веса Gemini Nano.
Параллельно стоит зайти на chrome://flags и поискать ключ #optimization-guide-on-device-model. Если там стоит «Default» или «Enabled», Chrome будет повторно скачивать модель после удаления — об этом ниже.
Какие риски несёт молчаливая установка ИИ-моделей?
Прецедент с Gemini Nano — это не просто история про лишние гигабайты. Это смена нормы того, что браузер может делать без согласия пользователя. И именно поэтому реакция сообщества оказалась такой жёсткой.
Расширение определения «компонента» браузера
Раньше под «компонентом» понимали небольшие справочники: списки сертификатов, базы для Safe Browsing, фильтры взрослого контента. Все они весили мегабайты, обновлялись раз в неделю и были незаметны. Теперь компонентом считается полноценная нейросеть, и пользователь по умолчанию соглашается на её установку, просто запустив Chrome.
Непрозрачная телеметрия
Локальный запуск модели не означает, что данные никуда не уходят. Chrome ведёт служебную телеметрию: сколько раз вызывались Built-in AI APIs, какой длины были промпты, сколько токенов сгенерировала модель, какой WebGPU-адаптер использовался. Эти агрегированные метрики Google собирает в рамках Usage Statistics, и пользователь не может выборочно отключить именно AI-телеметрию — только всю сразу.
Корпоративные риски
Системные администраторы в комментариях на Lobsters предупреждают: на корпоративных машинах модель скачивается даже при включённой групповой политике, ограничивающей фоновые загрузки. Это означает, что в офисе с 200 рабочих станций единое обновление Chrome выливается в 800 ГБ внешнего трафика — и попутно создаёт нагрузку на VPN-шлюзы.
Прецедент для других вендоров
Если Chrome нормализует тихую установку 4-гигабайтных моделей, следующим шагом станут аналогичные шаги от Microsoft Edge (с моделью Phi), Mozilla Firefox (с экспериментами Llamafile), Apple Safari (с Apple Intelligence). И уже не 4 ГБ, а 8, 12, 20 — в зависимости от того, насколько большой LLM решит интегрировать вендор.
Что делать прямо сейчас, если модель уже скачалась?
Полностью защититься от подобных сценариев в будущем сложно — но в моменте есть несколько практических шагов, которые возвращают контроль над диском и трафиком.
- Удалите компонент. На странице
chrome://components/рядом с «Optimization Guide On Device Model» есть кнопка очистки кеша компонента. Это удалит файлы модели, но Chrome может восстановить их при следующем запуске, если флаг включён. - Отключите флаг. На
chrome://flags/#optimization-guide-on-device-modelпоставьтеDisabledи перезапустите браузер. Это подавит фоновую загрузку до следующего глобального апдейта Chrome. - Запретите фоновое скачивание на уровне ОС. На Windows можно настроить лимит трафика для метрических соединений; на macOS — установить ограничения через утилиту Little Snitch для процесса
Google Chrome Helper. - Рассмотрите альтернативные браузеры. Brave, Vivaldi и Firefox пока не встраивают локальные LLM по умолчанию. Brave явно заявил, что любые ИИ-функции будут только опциональными.
- Используйте облачный AI вместо локального. Если вам нужны возможности уровня Gemini, ChatGPT или Claude, запускать их через WebGPT логичнее, чем платить диском за модель, которая всё равно работает хуже флагманских облачных версий.
Через WebGPT можно протестировать Gemini, GPT-4o, Claude Opus и DeepSeek в одной вкладке без локальных зависимостей и без необходимости держать на ноутбуке несколько ГБ нейросетевых весов. Подробный разбор отличий локальных и облачных моделей мы готовим в отдельном материале — следите за сравнением облачных и локальных ИИ для пользователей РФ.
Что говорят эксперты и комьюнити?
Дискуссия в технических кругах разделилась на три лагеря.
Сторонники локального ИИ считают, что встроенный Gemini Nano — это шаг к приватности: запросы не уходят в облако Google, и в долгосрочной перспективе пользователи получают мощный инструмент бесплатно. Их аргумент: лучше один раз скачать 4 ГБ, чем годами отправлять каждый промпт на серверы корпорации.
Сторонники прозрачности признают пользу локальных моделей, но настаивают на явном opt-in. По их мнению, при первом запуске Chrome должен показывать диалог: «Мы хотим скачать ИИ-модель на 4 ГБ для работы Built-in AI APIs. Согласиться / Отказаться / Спросить позже». Это полностью снимает претензии и одновременно соответствует букве GDPR и российского 152-ФЗ.
Жёсткие критики утверждают, что любая ИИ-модель в браузере — это нарушение принципа least privilege. Браузер должен оставаться браузером и не превращаться в платформу запуска нейросетей без согласия. Они указывают на то, что в случае уязвимости в WebGPU-стеке локально запущенная LLM может стать вектором атаки на ОС.
«Дело не в 4 ГБ. Дело в том, что Google решил за нас, что нашему браузеру нужен LLM. Завтра он точно так же решит, что нужен агент с доступом к файловой системе» — типичный комментарий из обсуждения на Hacker News.
Свою долю критики получил и формат раскрытия. В сообществе указывают, что в официальной приватности-белой книге Chrome упоминание про скачивание AI-моделей появилось задним числом и в крайне сжатой форме — без указания размеров и без отдельного раздела.
Когда ситуация может измениться?
Под давлением расследования и волны жалоб Google, по данным внутренних issue-трекеров Chromium, рассматривает несколько сценариев:
- Перенос загрузки в опциональный режим с явным диалогом при первом обращении сайта к Built-in AI API.
- Снижение размера модели до 1.5–2 ГБ за счёт квантизации в int4.
- Привязку загрузки к политике metered connection: на «дорогих» сетях модель не скачивается автоматически.
- Отдельный групповой policy-ключ для корпоративных администраторов, который заранее блокирует загрузку для целых организаций.
Реализация любой из этих мер потребует одного-двух мажорных релизов Chrome — то есть ждать стоит как минимум до конца 2026 года. До этого момента ответственность за контроль трафика и диска остаётся на пользователе.
Альтернативный путь: облачные ИИ через ru-инфраструктуру
История с Gemini Nano хорошо иллюстрирует общий тренд: вендоры будут всё активнее затягивать ИИ внутрь своих экосистем — браузеров, ОС, мобильных платформ. Для пользователей в России и СНГ это создаёт двойную проблему: мало того, что приходится платить местом и трафиком, так ещё и часть функций оказывается недоступна из-за региональных ограничений.
Облачный путь в этом смысле остаётся самым предсказуемым. Один тонкий клиент в браузере, никаких локальных моделей, чёткий API через российский фронтенд, доступ ко всем флагманским моделям — Gemini 2.5, GPT-4o, Claude 4, DeepSeek V3. Через WebGPT можно протестировать любую из них без танцев с chrome://components и без беспокойства о том, что очередной апдейт браузера займёт ещё пару гигабайт диска.
Если вы хотите глубже разобраться, как именно различаются модели по приватности и производительности, посмотрите наш подробный разбор Gemini Nano и облачных моделей Gemini — там по пунктам собраны различия в качестве ответов, скорости и сценариях применения.
Часто задаваемые вопросы
Удалится ли Gemini Nano, если я удалю Chrome?
Частично. Стандартный деинсталлятор Chrome удаляет основные файлы профиля, но иногда оставляет каталог OptGuideOnDeviceModel с весами. Чтобы гарантированно очистить диск, после удаления Chrome зайдите в папки %LOCALAPPDATA%\Google\Chrome (Windows) или ~/Library/Application Support/Google/Chrome (macOS) и убедитесь, что они пусты. На Linux проверьте ~/.config/google-chrome.
Затронуты ли только пользователи Windows?
Нет. Gemini Nano скачивается на Windows, macOS и Linux x86_64 одинаково. На ChromeOS модель уже включена как часть системы и обновляется вместе с ОС. На мобильных версиях Chrome (Android и iOS) такой компонент пока не активен, но Google уже анонсировал расширение Built-in AI APIs на мобильные платформы в течение 2026 года.
Можно ли отключить установку заранее, до того как Chrome скачает модель?
Да. На свежей установке Chrome сразу зайдите на chrome://flags/#optimization-guide-on-device-model и переключите флаг в Disabled. Дополнительно отключите «Improve search results with AI» и «Help improve Chrome» в основных настройках. Для корпоративных машин используйте policy-ключ OptimizationGuideFetchingEnabled.
Безопасно ли использовать Built-in AI в браузере для рабочих документов?
С точки зрения сетевой приватности — да, промпты обрабатываются локально. С точки зрения корпоративных политик — спорно. Если ваша организация регулируется требованиями по защите персональных данных или коммерческой тайны, прежде чем разрешать сотрудникам Built-in AI, согласуйте это с отделом информационной безопасности и зафиксируйте в политике использование модели как обработку данных на устройстве.
Какие альтернативы для пользователей из России?
Если нужен качественный ИИ без зависимостей от Chrome и без локальных моделей — используйте облачные сервисы через ru-инфраструктуру. WebGPT даёт доступ к Gemini, ChatGPT, Claude и DeepSeek через ask.gptweb.ru, не требует VPN, не занимает место на диске и не страдает от региональных ограничений Google. Для офлайн-сценариев можно посмотреть в сторону Ollama с локально установленной Llama 3.2 или Phi-3 — но это уже сознательный выбор, а не тихая установка от вендора браузера.