На этой неделе произошла история, которую почти не заметили крупные СМИ, но она обнажила тектонический сдвиг в американской политике. Во вторник утром министр оНа этой неделе произошла история, которую почти не заметили крупные СМИ, но она обнажила тектонический сдвиг в американской политике. Во вторник утром министр о

[Перевод] Секретный ультиматум на $200 млн: почему Минобороны США угрожает уничтожить главную ИИ-компанию мира

2026/03/02 11:46
6м. чтение
7e98fe262a6310e56d726e5b6ccd407d.png

На этой неделе произошла история, которую почти не заметили крупные СМИ, но она обнажила тектонический сдвиг в американской политике. Во вторник утром министр обороны Пит Хегсет вызвал Дарио Амодеи, CEO компании Anthropic, на ковер в Пентагон, чтобы обсудить военное применение их нейросети Claude. Но это был не дежурный разговор о контракте на 200 миллионов долларов и не мелкий спор о пользовательском соглашении. На деле Министерство обороны буквально выкручивает руки ИИ-компании, требуя убрать последние этические барьеры, чтобы использовать модель для массовой слежки за гражданами внутри страны и ведения войн с помощью автономного оружия без надзора человека.

Как сообщает Axios, посыл Пентагона к Anthropic был предельно жестким: «или делай, что говорят, или проваливай». Компании пригрозили повесить на нее ярлык «угрозы цепочке поставок» — клеймо, которое обычно берегут для поставщиков, связанных с враждебными государствами. В переводе на человеческий язык это означает изгнание из оборонного сектора и негласное давление на любую компанию, работающую с Пентагоном, с требованием отказаться от использования Claude.

Немного контекста: прошлым летом Anthropic подписала с Минобороны контракт на $200 млн, сделав Claude единственной ИИ-моделью, допущенной в секретные военные сети США. Claude, работая через сверхсекретное облако Amazon и ИИ-платформу Palantir, уже использовался в военной операции по похищению президента Венесуэлы Николаса Мадуро.


ИИ уже давно перестал быть игрушкой

Если вы используете ИИ только для того, чтобы делать свою старую работу немного быстрее, вы все еще действуете как рядовой потребитель. Стать создателем — войти в те самые 5% людей, свободно владеющих ИИ, — требует фундаментального сдвига в мышлении. Речь больше не идет о том, чтобы спрашивать: «Как этот инструмент может выполнить мою текущую задачу?». Речь идет о том, чтобы спросить: «Как этот инструмент может полностью устранить, масштабировать или переизобрести всю мою операционную модель?»

И чтобы стать творцом, вам нужен правильный арсенал. Ограничиваться одним ChatGPT — значит добровольно сужать свои возможности.

Сервисы вроде BotHub дают доступ к целой экосистеме топовых нейросетей в одном окне (от генерации сложных текстов до глубокого анализа данных). Это позволяет вам экспериментировать, сравнивать результаты разных моделей и строить те самые системы, о которых говорит статистика.

a0fcd18c93b77cd5181f5a10897e08cb.png

Для доступа не требуется VPN, можно использовать российскую карту.


Тот венесуэльский эпизод резко изменил тон отношений: когда боссы Anthropic попытались узнать детали того, как именно Claude используется в реальных боевых операциях, Пентагон воспринял это как «этические нравоучения». Ответ был жестким: если Claude находится в системе, военные будут использовать его так, как сочтут нужным.

Министерство обороны, которое администрация Трампа теперь открыто называет «Министерством войны», в январе выпустило новую ИИ-стратегию. Ее философия проста: в течение 180 дней во все контракты должен быть включен пункт о «любом законном использовании», а подрядчики обязаны снести все этические ограничения. Политический месседж кристально ясен: «ответственный» ИИ пойдет на войну, а что законно, а что нет — будет решать Пентагон.

Спор больше не о технологиях; это чистая политика. Anthropic уже согласилась убрать почти все свои ограничения, оставив лишь две красные линии: запрет на использование модели для массовой слежки за гражданами США и отказ участвовать в создании полностью автономных систем вооружения. И именно эти две линии Пентагон требует стереть.

И это не сценарий из киберпанка. Мы и так знаем, что правительство США занимается массовой слежкой. Но с такими передовыми моделями, как Claude, меняется сам масштаб и глубина анализа. Даже такие, казалось бы, четкие понятия, как «незаконная слежка за гражданами США», становятся резиновыми, когда в дело вступают широкие юридические трактовки и технологии массового анализа. Система, способная в реальном времени переваривать миллионы сообщений, скрещивать финансовые, биометрические и геолокационные базы данных, не просто ищет подозреваемых. Она может предсказывать поведение, составлять карты целых социальных сетей и навешивать ярлыки на эмоциональные состояния или политические тренды.

Вторая красная линия пугает еще больше. Создание смертоносного автономного оружия — систем, которые сами ищут, выбирают и уничтожают цели без надзора человека — это больше не академический спор. Пентагон давно движется в этом направлении, и, как отмечает Центр инноваций в области международного управления, США прямо сейчас втягивают планету в эру автономных войн. Семантический сдвиг от «человек принимает решение» к «человек наблюдает за решением» и, наконец, к «человек полностью исключен из процесса» происходит постепенно, но неотвратимо.

К сожалению, крупные медиа не горят желанием обсуждать эту тему. Как справедливо замечает одинокий голос издания Lawfare, именно Конгресс должен определять рамки военного применения ИИ, а не Пентагон и частные корпорации.

По-настоящему пугает не только то, что хочет сделать Белый дом, но и то, как он это делает. Никто публично не обсуждает, должны ли военные иметь безлимитный доступ к нейросетям, способным контролировать население или самостоятельно принимать решения об убийстве. Нет ни одного закона, регулирующего использование генеративного ИИ для выбора военных целей. Правила игры прямо сейчас пишутся в тайне, на закрытых переговорах между «министром войны» и боссами из Кремниевой долины.

Когда архитектура технологий, от которых зависят жизни, смерти и приватность миллионов людей, решается за закрытыми дверями под угрозой промышленных санкций, вопрос перестает быть техническим и становится институциональным. Кто будет следить за надзирателями, если само государство грозится уничтожить компанию за попытку установить ограничения?

Ситуация усугубляется тем, что другие бигтехи уже показали готовность прогнуться и снять свои предохранители ради жирных госзаказов. Это опасная гонка на дно в вопросах этики. Взять хотя бы xAI Илона Маска, которая уже получила доступ к системам Пентагона и, скорее всего, будет использоваться для систем вооружения и массовой слежки, если Anthropic откажется играть по правилам. При этом, хотя Дарио Амодеи только что заявил о своем отказе прогибаться под Пентагон, его компания всё же тихо отказывается от своего главного Обещания безопасности (Safety Pledge), в котором клялась не разрабатывать потенциально опасные технологии. А ведь именно за эту принципиальную позицию Дарио Амодеи в свое время попал на обложку журнала Time.

Остаются ли США демократией? Формально — да. По сути же кажется, что мы вступаем в те самые «темные времена», о которых писал Бертольт Брехт, когда мир катился к войне в 1930-х годах. Демократия определяется не просто регулярными выборами, а наличием эффективных ограничений для принудительной власти государства. Если эта власть стремится объединить массовую предиктивную слежку и автоматизированное насилие под непрозрачным контролем, дистанция между демократией и полицейским государством становится пугающе короткой.

Вопрос не в том, должны ли страны использовать ИИ в рамках своего законного права на самооборону. Вопрос в том, кто устанавливает границы этого использования. Если ответ — военный аппарат сам по себе, без эффективного внешнего контроля, то это уже проблема не технологий, а верховенства закона.

ОБНОВЛЕНИЕ (27.02.2026): Дарио Амодеи дал официальный ответ. И он сказал НЕТ.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.