Нейро-дайджест: ключевые события мира AI за 4-ю неделю ноября 2025 — Habr

🧠Модели и LLM ❯ Claude Opus 4.5 — прорыв в кодинге Anthropic выкатили Claude Opus 4.5 — и это сейчас самая сильная модель для кодинга, которая впервые в истории превысила 80% на SWE-bench Verified, обогнав Gemini 3 Pro, GPT-5.1-Codex-Max и Sonnet 4.5. Главная фишка — высокая эффективность. Opus 4.5 тратит на 48–76% меньше токенов, а цена упала втрое — до $5/$25 за миллион токенов. По словам разрабов, Opus 4.5 прошла их внутренний экзамен для найма лучше любого человека в истории компании. Плюсом в Claude Code завезли сжатие контекста, чтобы не упираться в лимиты и кодить дольше. Модель уже раскатали для платных подписчиков, в API, а так же в OpenRouter и GenSpark. ❯ DeepResearch для шоппинга от OpenAI OpenAI запустили shopping research — это адаптация Deep Research под поиск товаров. Модель задаёт уточняющие вопросы, параллельно собирает информацию из сети и показывает результаты в реальном времени, а пользователь отмечает, что подходит, а что нет. Так ассистент быстрее понимает предпочтения и корректирует направление поиска. Внутри работает специально дообученный GPT-5 mini, который оптимизировали под подбор товаров. По заявлениям OpenAI, он справляется лучше, чем GPT-5 Thinking в этой задаче. Режим уже доступен на вебе и в мобильных приложениях ChatGPT. Важное примечание. Модель может ошибаться в деталях: цены, наличие и характеристики товара лучше перепроверять на сайте продавца — в OpenAI на этом прям акцентируют. 🔗 ChatGPT ❯ GigaChat 3 с открытыми весами Сбер выложил в опенсорс весь свой ИИ-стек. Флагман GigaChat Ultra-Preview — огромная MoE с 702B параметров и 36B активных, обученная полностью с нуля на русском датасете. Уже обходит DeepSeek V3.1 по русскому бенчмарку MERA и поддерживает контекст до 128к+ токенов, в Lightning — до 256к. GigaChat 3 Lightning — компактная версия на 10B параметров и 1.8B активных, которую можно завести локально. По скорости она сравнима с Qwen3-1.7B, а по качеству превосходит Qwen3-4B. В статье на Хабр команда Сбера рассказала про архитектуру, использование MTP и MLA для ускорения, дала прозрачную историю обучения и объяснила, как натренировать модель, чтобы она была полезной и недушной. Плюсом есть новые chat-шаблоны, поддержка TS-функций, улучшенный tool calling и мультиъязычная поддержка — 10 языков, включая китайский, узбекский, казахский и др. ❯ Heretic — автоматическое снятие цензуры с LLM На GitHub появился Heretic — инструмент, который поможет автоматически снять цензуру с LLM. Она гоняет примеры диалогов через API, учится на них и постепенно приучает модель, что отвечать на неудобные запросы — нормально. В итоге ИИ перестаёт блокировать запросы и выдаёт прямые ответы. Heretic не изменяет саму LLM и не делает её умнее — он просто снимает системные фильтры. Более подробно, как это работает: за отказ отвечать на табу-запросы отвечает одно направление в активациях модели. Heretic вычисляет это направление, сравнивая реакцию модели на обычные и «опасные» промпты, а затем аккуратно вырезает этот вектор из весов слоя внимания и MLP. Дальше инструмент уменьшает количество отказов, но при этом следит, чтобы модель сохранила исходный характер и стиль ответов. Процесс автоматический и быстрый: на RTX-3090 переработка Llama-8B занимает около 45 минут Heretic поддерживает архитектуры Llama, Qwen, Gemma, многие мультимодальные модели и даже MoE. Разработчики подчеркивают, что инструмент предназначен для исследовательских задач, а юридические и этические последствия применения ложатся на пользователя. ❯ GPT-5.1-Codex-Max OpenAI выпустили GPT-5.1-Codex-Max — новую модель для автономного кодинга и агентных задач. Главное: модель может самостоятельно работать до 24 часов, последовательно проводя тесты, исправляя баги и доводя проект до результата без участия пользователя. В тестах SWE-bench Verified она показала 77.9%, предыдущая 5.1-Codex — 73.7%. В линейку режимов reasoning добавился новый — xhigh, а расход токенов стал на 30% ниже. Это первый Codex, обученный работать в Windows, включая Powershell и особенности Windows-окружения. Ещё появилась функция compaction — модель умеет сжимать старый контент контекста и переносить его в следующее окно памяти, что позволяет работать с огромными объемами истории диалога. Уже доступна в IDE и Codex CLI, в API появится позже. 🎨 Генеративные нейросети ❯ Gemini 3 Pro Image — новая Nano Banana Google представили Gemini 3 Pro Image, она же Nano Banana Pro — модель нового поколения на базе свежего Gemini 3 Pro. Настолько круто работает с текстом, что решит вам домашку по фотке, сохранив почерк, и это будет выглядеть максимально естественно. Главные улучшения: модель уверенно меняет ракурс, перспективу и композицию, а не просто дорисовывает поверх, как это было в старой банане картинку реально можно использовать как стиль, а не как жесткий референс поддерживает серийную генерацию: можно запросить весь сет из 5–10 кадров, модель сама строит мини-сториборд и развивает сцену шаг за шагом Это всё ещё диффузионная система поверх текстового энкодера Gemini, но теперь модель размышляет в процессе генерации: создаёт до трёх вариантов, сравнивает их с промптом по композиции, логике и качеству, и показывает пользователю лучшую версию. Добавили встроенную цифровую вотермарку SynthID, которая фиксирует факт редактирования изображения. Cейчас это одна из сильнейших мультимодальных систем на рынке. 🔗 Блогпост 🔗 API 🔗 Gemini App 🔗 Cookbook ❯ FLUX.2 — ответ Nano Banana Pro Следом Black Forest Labs выкатили FLUX.2 — трансформер на 32 млрд параметров. Качество до 4К и дешевле Nano Banana Pro в пять раз. Генерирует, точечно редактирует и комбинирует картинки, поддерживает до 10 референсов одновременно, засчёт чего персонажи получаются консистентными. Три версии модели: [pro] — качество уровня топ-моделей, при этом работает быстрее и дешевле; [flex] — полный ручной контроль над процессом генерации; [dev] — версия с открытыми весами на 32B, запускается локально на RTX 4090 (через 4-битное квантование), вес полноразмерной модели — около 70 ГБ. Под капотом Mistral-3 24B отвечает за понимание физики сцены, композиции, света, материалов и логики объектов. FLUX.2 уже есть в ComfyUI и Diffusers, а протестировать можно прямо через Playground — при авторизации дают 50 бесплатных генераций. Версию klein с Apache-лицензией обещают позже. 🔗 Блогпост 🔗 FLUX Playground 🔗 HuggingFace ❯ HunyuanVideo 1.5 — открытый генератор видео Tencent представили HunyuanVideo 1.5 — лёгкий и быстрый видеогенератор с 8.3B параметров, по качеству конкурирует с более тяжёлыми закрытыми моделями. Ключевая инновация — новый механизм SSTA (Sparse Space-Time Attention), который ускоряет генерацию 10-секундного ролика в 720p в 2 раза Главная фишка — эффективность и скорость. Новый механизм SSTA или Sparse Space-Time Attention ускоряет генерацию 10-секундного видео в 720p почти в два раза. Для работы достаточно 14 гигабайт VRAM. Но скорость, конечно, просядет. Поддерживаются img2vid и txt2vid режимы в разрешении 480p и 720p и апскейл до 1080p. Отлично справляется со сложными промптами и реалистичной физикой объектов. Интегрируется с ComfyUI и LightX2V. ❯ Семейство моделей Kandinsky 5.0 Ещё один релиз от Сбера, на сей раз семейство Kandinsky 5.0, опенсорс с MIT-лицензией. Модели хорошо понимают русские промпты и культурный контекст. Пишут читабельную кириллицу, что до сих пор остаётся слабым местом многих западных моделей. 4 модельки: Video Pro — флагман, генерит HD-видео до 10 секунд, гибкое управление движением камеры, обучена на 250 млн видео и 520 млн изображений, понимает русские и английские промпты Video Lite — компактная версия, запускается от 12 GB VRAM, при этом обходит тяжёлую Wan-2.1-14B Image Lite — генерация и редактирование изображений; превосходит FLUX.1 dev в Text-to-Image и сравним с FLUX.1 Kontext по Image Editing. K-VAE 1.0 (2D/3D) — мощные визуальный автоэнкодеры, сжимают изображения и видео без потери качества. Сейчас один из лучших в опенсорсе. 🔧 AI-инструменты и платформы ❯ Обновление Cursor 2.1 Вышел обновлённый Cursor 2.1, появилась функция Find Issues — агент делает ревью кода, ищет баги и сразу подсвечивает проблемы в боковой панели. Ещё ускорили поиск по проекту: теперь он работает на векторной базе, обходит большие репозитории за секунды. Для любителей классического grep оставили отдельный режим. Обновился и интерфейс планирования: когда вы утверждаете план работ, Cursor начинает задавать уточнения прямо в интерактивном режиме — можно отвечать ему в процессе, не перезапуская запрос. ❯ PaperReview — ИИ-инструмент для проверки научных работ Сооснователь Coursera (не Cursor) Эндрю Ын запустил бесплатный инструмент PaperReview — это ИИ-рецензент для научных статей. Идея проста: получить честный фидбек на работу до того, как её начнёт разбирать научрук или реальный рецензент. Агент оценивает новизну, ясность и методологию, отмечает слабые места и указывает, что может не понравиться редактору или комиссии. Самое крутое — стабильность оценок: корреляция оценки ИИ с человеком — 0.42. Для сравнения, у двух живых рецензентов она всего 0.41. То есть бот оценивает так же стабильно, как и люди. Тулза особенно сильна на материалах по CS и ИИ, используя массив данных arXiv и реальные рецензии с ICLR-2025. Отлично подходит для студентов, аспирантов, исследователей и всех, кто хочет понять, как это увидят рецензенты, но без ожидания в несколько месяцев. 🔗 PaperReview ❯ Консилиум LLM'ок — LLM Council Андрей Карпаты представил LLM Council — инструмент, который симулирует «совет нейросетей»: вы отправляете один запрос, а дальше происходит следующее: через OpenRouter запрос уходит сразу в несколько моделей, например GPT-5.1, Gemini 3 Pro, Sonnet 4.5, Grok 4 каждая LLM пишет свой ответ затем модели видят анонимные ответы друг друга, оценивают, комментируют и ставят ранги и наконец председатель совета формирует итоговый ответ на основе коллективного решения Интересный факт: модели зачастую признают лучшим ответ другой модели, а не свой. Регулярно выбирают GPT-5 как наиболее качественного члена совета, а Claude, наоборот, оценивают ниже. LLM Council показывает, что ансамбли моделей могут давать решения стабильнее и точнее, чем единичная LLM, — просто потому что системы проверяют и балансируют ответы друг друга. 🔗 GitHub ❯ Perplexity теперь создаёт презентации Теперь Perplexity умеет оформлять найденную информацию в презентации, таблицы и структурированные тексты. Полезно, если вы проводите исследование внутри Perplexity и хотите получить результаты в готовом формате. Фича уже доступна подписчикам Pro и Max. Работает просто: делаете поиск или обзор темы нажимаете на экспорт в презентацию / таблицу / документ сервис сам структурирует данные и делает финальный материал 🧩 AI в обществе и исследованиях ❯ Genesis — проект по ускорению науки с помощью ИИ В США запускают проект Genesis для ускорения научных открытий с помощью ИИ. Национальные лаборатории, суперкомпьютерные центры и частные компании — включая Nvidia, Anthropic и Dell — объединят вычислительные ресурсы и данные в единую платформу. Приоритеты: биотехнологии, медицина, ядерная и термоядерная энергетика, космос, квантовые технологии, новые материалы и полупроводники. Проект сравнивают с программой «Аполлон» — цель сократить время научных прорывов с лет до дней. Гипотезы будут проверяться через роботизированные лаборатории: модель формулирует идею → робот выполняет эксперимент → результат возвращается модели. Финансирование пока не раскрывают, но именно координация ресурсов может стать ключевым преимуществом США — особенно на фоне ограниченного доступа Китая к передовым GPU. 🔗 White House 🔗 CBS News ❯ Учёные научились «включать» любые запахи Раработали гарнитуру, которая стимулирует разные зоны мозга. С ней люди могли почувствовать запах свежего воздуха, костра и даже мусора. Всё это при помощи воздействия ультразвука на ольфакторные зоны мозга. Ощущения возникают не от носа, а от активации соответствующих нейронных схем. Если разработка дойдёт до VR/AR, можно будет чувствовать запахи в играх и фильмах, ещё глубже погружаясь в атмосферу. 🔗 Исследование ❯ Нейрочип для восстановления речи В США начинают клинические испытания нейроимпланта Connexus от компании Paradromics — устройства, которое может вернуть парализованным людям способность говорить. Сначала имплант протестируют на двух пациентах, затем — ещё на восьми. Чип размером с монетку подключается к зонам мозга, отвечающим за артикуляцию — движения губ, языка и гортани. Внутри — 421 платино-иридиевый электрод, толщиной около 40 микрон каждый, что тоньше человеческого волоса. Когда человек мысленно «произносит» слова, имплант считывает нейронные сигналы и отправляет их на нагрудный ресивер. Тот передаёт данные компьютеру, где нейросеть преобразует их в речь. Система адаптируется под конкретного пользователя, обучаясь на его нейронных паттернах. Paradromics основана в 2015 году — на год раньше Neuralink — и считается одним из ключевых конкурентов проекта Маска. Компания привлекла более $100 млн инвестиций и получила около $18 млн грантов от правительства США. 🔗 Connexus ❯ Робота F.02 отправили на пенсию Компания Figure AI официально отправила робота F.02 на пенсию после почти года работы на заводе BMW в Южной Каролине. За 11 месяцев, по 10 часов в день, 5 дней в неделю, робот провёл на линии более 1250 часов, помогая собрать свыше 30 000 автомобилей. На его корпусе видны реальные следы износа: потертости, царапины и даже своего рода мозоли на руках. На основе опыта F.02 разработали новую модель — F.03. BMW публично подтверждали, что единовременно на линии работал только один андроид, причём преимущественно в непроизводственные часы и под наблюдением инженеров. Так что паниковать по поводу скорого «захвата заводов роботами» пока рано — реальная автоматизация идёт постепенно, и пока люди важны в цепочке не меньше машин. ❯ Тема недели: Альфред Нобель. От динамита к наследию 27 ноября 1895 года Альфред Нобель, изобретатель динамита и один из самых богатых промышленников эпохи, подписал завещание, изменившее его репутацию. Он понял, что его изобретение, созданное для блага, несет угрозу. Сегодня разработчики находятся в том же положении. Мы создали «когнитивный динамит» — технологию с непредсказуемой мощностью. Главный вопрос нашей эпохи: кто станет новым Нобелем? И как нам заставить наш код работать на физику мира, а не на химию войны, пока мы не прочитали собственный цифровой некролог? ❯ Аудиоверсия дайджеста ❯ Заключение Неделя выдалась мощной: Claude Opus 4.5 задал новый стандарт кодинга, GigaChat 3 вышел в опенсорс. В генеративке соревнуются FLUX.2 и Gemini 3 Pro Image, параллельно вышли LLM Council, PaperReview  обновления Cursor и Perplexity. ИИ растёт не точечно, а системно — охватывая код, графику, работу с документами, биологию, медицину и промышленность. До встречи в следующем выпуске! Source: https://habr.com/ru/companies/timeweb/articles/970682/