Искусственный интеллект Бизнес-модели * Карьера в IT-индустрии Анализ и проектирование систем * Управление разработкой * Аналитика «Главная угроза — не в том, что ИИ станет разумным. А в том, что люди перестанут им быть»- Андрей Карпати, интервью Dwarkesh Podcast, октябрь 2023 Эта фраза отражает не страх перед восстанием машин, а тревогу за будущее человеческого суждения. И она особенно актуальна на фоне распространённого убеждения: «Общество не допустит появления нечеловеческого ИИ — мы просто остановим его, пока не стало слишком поздно». На первый взгляд, это утверждение кажется разумным. Демократические институты, этические комитеты, международные соглашения — всё это создаёт иллюзию контроля. Однако исторический опыт показывает обратное: технологии почти всегда опережают регулирование. Ядерное оружие, CRISPR, интернет — все они сначала появились, и лишь потом общество начало осознавать их последствия. Сегодня ИИ уже не гипотетическая угроза из научной фантастики. Он открыт, глобален и децентрализован. Модели вроде Llama 3, Mistral или Qwen доступны любому студенту. Исследования публикуются ежедневно на arXiv. Государства и корпорации ведут бескомпромиссную гонку, где ставка — не только прибыль, но и геополитическое превосходство. При этом ИИ уже влияет на реальность — часто незаметно. Алгоритмы формируют общественное мнение (как в случае с Cambridge Analytica), управляют кредитными решениями, определяют видимость новостей и даже участвуют в судебных решениях. В корпорациях, как показывают исследования 2025 года, 90% сотрудников используют ИИ в обход официальных политик — так называемый «теневой ИИ». В этой реальности вера в то, что «общество не допустит» — это не гарантия безопасности, а иллюзия контроля, которая может задержать необходимые действия. «Это не призыв к запретам. Это попытка трезво оценить, что уже происходит, понять, как управлять тем, что уже существует, и предложить этическую альтернативу — путь технологического гуманизма». Глава 1. Уроки истории: технологии не ждут морального одобрения Германия: научный локомотив, остановленный идеологией Германия обладала сильнейшей в мире школой ядерной физики. Уже в 1939 году был создан Урановый клуб под руководством Вернера Гейзенберга. Но наука в Третьем рейхе быстро подчинилась идеологии. «Еврейская физика» — теория относительности, квантовая механика — подвергалась гонениям. Многие учёные бежали. Оставшиеся — замолчали. К 1942 году программу Рейх свернул. «Гейзенберг, вероятно, сознательно не довёл проект до конца — не из-за ошибки, а из-за морального выбора: не дать Гитлеру бомбу. Историки до сих пор спорят, была ли это ошибка — или акт сопротивления», США: от страха к стратегии — и к моральному компромиссу В США всё пошло иначе. В 1939 году эмигранты-физики — Силард, Вигнер, Теллер — убедили Эйнштейна написать письмо Рузвельту. Основной мотив был ясен: страх, что Германия создаст бомбу первой. Манхэттенский проект. К 1945 году бомба была создана но политическая ситуация изменилась. Германия капитулировала. Япония — уже вела переговоры о мире через посредничество СССР. 6 августа бомбардировщик Б-29 над городом Хиросима сбросил «Малыша». 9 августа «Толстяка» — на Нагасаки. Цели были не военными базами, а городами с миллионами гражданских. Более 200 тысяч погибших к концу 1945 года, с учётом последствий радиации — до 350 тысяч Сегодня рассекреченные документы показывают: моральный фактор в США был практически размыт. Решение принималось уже понимая что война с Германией закончена и предстоит выстраивать новый мировой порядок. По моему мнению: главная цель была ясна: продемонстрировать СССР, США могут уничтожить любой город за секунды — и что в будущем мироустройстве это будет решающим аргументом. СССР: конец иллюзий и начало гонки Для Советского Союза Хиросима стала шоком. Сталин понял: если СССР не создаст свою бомбу, следующая война будет между США и СССР — и она будет ядерной. Уже в 1940 году академики Сергей Вавилов, Виталий Хлопин и Александр Ферсман направили правительству записку о потенциале «внутриатомной энергии». передавали информацию разведке СССР из убеждения, что только баланс сил может предотвратить одностороннюю ядерную диктатуру». Учёные из Манхэттенского проекта — Клаус Фукс, Теодор Холл, Дэвид Грингласс — передавали информацию разведке СССР возможно из глубоких этических соображений. Они видели, как США используют атомное оружие против мирных городов. Они боялись монополии на уничтожение. И они верили: единственный способ предотвратить ядерную диктатуру — создать баланс сил. Сегодня это называют гарантией взаимного уничтожения. Но тогда это был акт морального сопротивления.Передача данных советской разведке — выглядит этичным поступком в контексте стремления к глобальной стабильности. СССР за 4 года создал свою атомную бомбу. В августе 1949 года на Семипалатинском полигоне взорвалась РДС-1.Начался долгосрочный паритет. Что показывает эта гонка? Технологии не ждут этического консенсуса.Атомная бомба была создана и применена до того, как общество успело осмыслить её последствия. Мораль уступает место стратегии.США, позиционировавшие себя как моральных лидеров сознательно уничтожили сотни тысяч гражданских, чтобы усилить позиции в переговорах с СССР. Контроль невозможен, если хотя бы один игрок не согласен.Даже если большинство стран решат «не допустить» появления технологии — достаточно одного государства, которое сочтёт её стратегически необходимой, чтобы гонка началась. Иногда «подпольная» передача знаний — единственный путь к равновесию.В условиях морального вакуума у доминирующей державы, распространение знаний становится актом ответственности. Эта история — не просто урок прошлого. Она демонстрирует устойчивый паттерн технологического развития: Когда прорыв становится возможен, он становится неизбежен.И он происходит не там, где есть моральное одобрение, а там, где есть воля, ресурсы и страх отстать. Этот паттерн станет ключом к пониманию того, что происходит с искусственным интеллектом сегодня. Но сначала нужно признать: иллюзия общественного контроля — это не надежда. Это задержка ответственности. «Критики могут справедливо указать, что прямая аналогия ИИ с ядерным оружием несовершенна из-за его децентрализованной природы. Однако более релевантными являются примеры химического и биологического оружия: технологии, которые также не требовали эксклюзивных ресурсов, но были впервые применены в ситуации острой конкуренции, а запрещены — лишь после осознания их чудовищных последствий. Это подтверждает универсальный паттерн: не централизация, а сама логика технологической гонки опережает моральный консенсус. ИИ, будучи распределённым, лишь делает этот паттерн повсеместным и неотслеживаемым, а значит — ещё более опасным». Глава 2. Нечеловеческий ИИ уже здесь — и он открыт Гонка ИИ демонстрирует радикальное отличие от прошлого: технология больше не требует секретных лабораторий или государственных бюджетов. Она распространяется сама — через GitHub, arXiv, облачные платформы и университетские курсы. И самое важное: ИИ уже демонстрирует формы познания, которые не похожи на человеческое мышление. Но называть их «нечеловеческими» — рискованно. Точнее будет сказать: это статистическая интуиция — способность выявлять паттерны в данных, недоступные человеку, без понимания причин, целей или смысла. Как показывает Anders Søgaard в работе «Do Language Models Have Semantics?» (ACL, 2025), языковые модели обладают: инференциальной семантикой — они понимают отношения между понятиями (гипонимия, аналогия, логическое следствие), слабой референциальной семантикой — их внутренние представления структурно схожи с визуальными моделями, нейроактивностью и знаниями. Это не сознание. Но это и не иллюзия. Это новая форма познания, основанная не на теле и эмпатии, а на статистической глубине и структурных соответствиях. В 2023-2025 годах мир вошёл в эпоху открытых foundation models. Llama 3 от Meta — бесплатен, документирован, доступен любому студенту. Mistral из Франции — создан с явной целью обеспечить европейский суверенитет в ИИ. Qwen из Китая — часть национальной стратегии технологического лидерства. Эти модели — не «подпольные эксперименты». Они — основа национальных стратегий, стартапов, государственных сервисов. Их веса можно скачать за час. Их можно запустить на домашнем ПК. Их можно дообучить под любую задачу — от медицинской диагностики до генерации пропаганды. Контроль невозможен не из-за злого умысла — а из-за физики распространения знаний.Как сказал один исследователь: «Вы не можете запретить математику. А ИИ — это, по сути, прикладная статистика высокого порядка». Научная прозрачность ≠ безопасность Каждый месяц на arXiv публикуется более 500 статей по машинному обучению, и ещё сотни — по ИИ в целом. В них — детали архитектур, методов обучения, оценки безопасности: Constitutional AI — как обучать ИИ следовать этическим принципам без человеческой обратной связи. Chain-of-Thought (CoT) — как заставить ИИ «рассуждать» шаг за шагом. RLAIF — обучение с подкреплением от ИИ, а не от человека. Это не «секретное оружие». Это публичная наука. Но именно эта открытость делает ИИ неуязвимым для запретов. Потому что запретить идею нельзя. Можно только отстать от тех, кто её развивает. И при этом открытость несёт риски. Тот же Llama 3 используется не только для образования, но и для генерации deepfake-контента, фишинговых писем и дезинформации. Открытые веса — это не только прозрачность, но и демократизация злоупотреблений. Глобальная гонка: не три центра, а три стратегии Сегодня в гонке ИИ участвуют как минимум три силы — но их подходы принципиально различаются. США — частный сектор, скорость, масштаб. OpenAI, Anthropic, Google ставят на агрессивное внедрение и монетизацию. По данным Stanford AI Index (2025), США остаются лидером по частным инвестициям ($50 млрд в 2024 г.). Китай — государственная координация, технологический суверенитет, стратегическое равновесие. Согласно отчёту Brookings Institution (март 2025), Китай инвестировал $38 млрд в ИИ в 2024 году, сосредоточившись на чипах, foundation models и военных приложениях. Qwen, DeepSeek, Yi — это не просто продукты, а элементы национальной безопасности. ЕС и союзники — регулирование, этика, осторожность. Mistral, Aleph Alpha и европейские стартапы пытаются найти «третий путь», но рискуют остаться наблюдателями, а не игроками. По оценкам European Commission, ЕС контролирует менее 5% глобального рынка foundation models. Ни одна из сторон не ждёт общественного одобрения. Все действуют, потому что понимают: кто первый — тот задаёт правила. Почему это уже влияет на мир? Потому что нечеловеческий ИИ уже управляет реальностью: Алгоритмы решают, кому дать кредит, а кому отказать. Системы ранжируют новости, вакансии, судебные дела. Чат-боты формируют мнения, диагнозы, учебные программы. И всё это происходит без понимания того, что такое «справедливость», «истина» или «человеческая жизнь». ИИ просто оптимизирует функцию полезности — часто непрозрачную, иногда противоречивую, всегда оторванную от морали. «Нечеловеческий» ИИ — не гипотеза. Он уже в mainstream.Он не скрывается в подполье — он открыт, документирован, глобален.Он не ждёт разрешения — он развивается там, где есть вычислительные ресурсы и научная свобода. И он уже влияет на судьбы миллионов, не обладая ни совестью, ни пониманием, ни намерением. Верить, что «общество не допустит» его развития — значит игнорировать уроки атомной гонки и отрицать реальность сегодняшнего дня. Следующий вопрос уже не «допустим ли мы ИИ?», а: Как управлять тем, что уже существует — и что уже думает, но не так, как мы? Глава 3. Два мира ИИ: массовый и элитный Одна и та же технология ИИ порождает два параллельных мира. В одном — вежливый и объяснимый помощник. В другом — непрозрачный, но пугающе эффективный инструмент. Это не просто техническое различие. Это эпистемологический раскол — раскол в самом способе познания реальности. Массовый ИИ: «вежливый попугай» для всех Большинство людей сталкиваются с ИИ через ChatGPT, Copilot, рекомендательные системы. Это — массовый ИИ. Его главная задача — не быть умным, а быть понятым. Он: выровнен под человеческие ценности через RLHF (обучение с подкреплением от человека), объясним: даёт пошаговые рассуждения, извиняется за ошибки, избегает спорных тем, ориентирован на рынок: 73% запросов к ChatGPT — личные (рецепты, советы, тексты), лишь 27% — рабочие (OpenAI, 2025). Этот ИИ — продукт рыночных и этических компромиссов. Он не стремится к истине — он стремится к доверию. И в этом его сила — и его слабость. Практический пример: в HR-отделах крупных компаний уже используются ИИ-ассистенты для первичного отбора резюме. Они оценивают кандидатов по ключевым словам, структуре текста, «культурному соответствию». Но их логика прозрачна: если кандидат не проходит — система объясняет почему: «не хватает опыта в управлении», «низкий уровень английского». Это не решение, а фильтр, построенный на понятных, хотя и упрощённых, правилах. Элитный ИИ: «инопланетный разум» для избранных Но параллельно существует другой ИИ — элитный. Его не видят миллионы пользователей. Его используют в науке, обороне, стратегических технологиях. И он не пытается быть понятым. Пример 1: AlphaFold (DeepMind)AlphaFold предсказывает трёхмерную структуру белков и делает это с точностью, что даже опытные учёные остаются в изумлении. То, что раньше требовало месяцев лабораторной работы и огромных ресурсов, сегодня стало почти рутиной. Но вот парадокс: хотя AlphaFold выдаёт правильные ответы, он не может объяснить, как к ним пришёл. Долгое время его «мышление» оставалось чёрным ящиком. Лишь недавно исследователи начали использовать инструменты вроде SHAP и анализ внимания (attention probing), чтобы заглянуть внутрь — хоть немного понять, на что модель «смотрит», когда принимает решение. Сегодня мы уже можем сказать: «Вот эти аминокислоты для неё важны». Но почему именно так сворачивается белок? Как модель «видит» эту логику? — ответа на этот вопрос до сих пор нет. AlphaFold работает. Блестяще.Но он молчит — и в этом его одновременно сила и загадка. Принципы работы AlphaFold 3 и ее эффективность. Источник Пример 2: ИИ в DARPA В рамках программы AI Next Агентство перспективных исследовательских проектов США (DARPA) финансирует системы, способные: обнаруживать кибератаки за миллисекунды, генерировать гипотезы в фундаментальной физике, управлять автономными дронами в условиях полной неопределённости. Эти системы не имеют интерфейса для человека. Они не просят подтверждения. Они действуют. Их логика — государственная тайна, а не открытая наука. Пример 3: Чип-дизайн от Google ИИ от Google создаёт топологии микросхем, которые работают лучше человеческих. Но инженеры не могут объяснить, почему. Попытки «улучшить» их по человеческой логике снижают производительность. Здесь ИИ — не помощник, а автор. Разрыв: не просто «чёрный ящик», а «чёрная вселенная» Разница между массовым и элитным ИИ — не в том, что один «говорит», а другой «молчит». Разница в качестве знания. Массовый ИИ — это поверхностная модель: он учится на корреляциях в тексте, имитирует понимание, но не обладает внутренней моделью мира. Элитный ИИ — это глубинная модель: он учится на сырых данных (физика, биология, схемотехника), выявляет структуры, недоступные человеку, и действует на основе нечеловеческой логики. Как писали Melanie Mitchell и David Krakauer (PNAS, 2023): «Эти системы обладают “инопланетной интуицией” — формой понимания, которая не похожа на человеческую, но эффективна в своей области». Последствия: новое неравенство Именно здесь рождается главная угроза эпохи ИИ — не «захват мира машинами», а эпистемологическое неравенство. Сегодня: 100 компаний (преимущественно из США и Китая) обеспечивают 40% мировых расходов на R&D в ИИ, Крупнейшие техногиганты оцениваются в $3 трлн каждая — это сопоставимо с ВВП всей Африки. Глобальный рейтинг брендов Interbrand за 2025 год подчеркивает значительные перемены, вызванные развитием ИИ и сменой рыночных трендов, при этом общий показатель стоимости брендов вырос на 4,4%, достигнув 3,6 триллиона долларов. Если массовый ИИ будет «выровнен» под человеческое понимание, а элиты получат доступ к системам с нечеловеческой логикой, возникает не просто экономическое, а эпистемологическое неравенство — разница в качестве знания о реальности. Против власти силы и денег можно бороться. Против власти непрозрачного знания — нет, потому что вы не понимаете, что именно контролирует оппонент. Глава 4. Эпистемократия: новая форма власти «Эпистемократия» как термин был упомянут Платоном, он мечтал о государстве, управляемом теми, кто обладает истинным знанием. Позже Мишель Фуко показал, как власть исторически конструировалась через дискурсы, экспертизу и контроль над «правильным» знанием. Но эпистемократия эпохи ИИ — это не власть мудрецов. Это власть тех, кто имеет доступ к системам, чья логика недоступна даже их создателям, но которые работают с пугающей эффективностью. Здесь власть больше не основана на понимании, а на доступе к непрозрачному знанию. Эпистемократия: власть тех, кто контролирует формы познания, недоступные остальным. Два мира знания Как мы уже показали, ИИ делится на два типа: Массовый ИИ (ChatGPT, Copilot) — выровнен, объясним, ориентирован на рынок. Элитный ИИ (AlphaFold, чип-дизайн, квантовые симуляции) — непрозрачен, но эффективен. Первый — для всех. Второй — для избранных. И именно во втором рождается новое качество знания. Когда AlphaFold предсказывает структуру белка, он не объясняет, почему. Он просто работает. Когда ИИ от Google создаёт топологию чипа, инженеры не могут объяснить, почему она эффективнее — попытки «улучшить» её по человеческой логике снижают производительность. Это не «чёрный ящик». Это чёрная вселенная — пространство логики, недоступное человеческому пониманию, но способное управлять реальностью. Против чего можно бороться — и против чего нельзя Исторически власть строилась на трёх китах: Сила (армия, полиция), Source: https://habr.com/ru/articles/958862/