До недавнего времени мы воспринимали апокалиптические сценарии как мем. В кулуарных разговорах на фоне новостей о ракетных обменах между Вашингтоном, Тель-Авивом и Тегераном мы шутили: «Ну всё, осталось только восстания машин дождаться для полного счастья». Казалось, что ирония — единственный адекватный способ переварить информацию о том, как стремительно Ближний Восток охватывает пламя. Но реальность, как это часто бывает, решила не останавливаться на достигнутом и подкинула сюжет, от которого попахивает сценарием фильмов-катастроф.
В пятницу, аккурат перед эскалацией, которая уже переросла в полномасштабную операцию, грянул скандал в мире высоких технологий. Компания Anthropic, разработчик одной из самых совершенных нейросетей Claude, отказалась сотрудничать с Пентагоном. Причём отказалась демонстративно, наотрез, подставив под удар многомиллионные контракты.
История получила название «Ультиматум Хегсета». Глава Пентагона потребовал от Anthropic снять встроенные этические ограничения с модели Claude. Речь шла о «красных линиях», которые компания установила для себя добровольно: запрет на использование ИИ для массовой слежки за гражданами (в том числе самими американцами) и для создания полностью автономных боевых систем, способных убивать без участия человека .
Военные, по данным СМИ, настаивали на формулировке «любое законное использование», оставляя за собой право трактовать закон в зависимости от обстоятельств. Грубо говоря, вчера это анализ разведданных, а завтра — управление роем дронов-камикадзе. Anthropic дрогнула, но устояла. Генеральный директор Дарио Амодеи выпустил заявление, в котором фактически процитировал классику: «Мы не можем с чистой совестью пойти на это».
Ответ Пентагона был молниеносным и жестоким в своей бюрократической красоте. Компанию объявили… угрозой национальной безопасности. Да-да, именно так: разработчик, отказавшийся давать армии инструменты тотальной слежки, был приравнен к вражеской шпионской программе. Все контракты разорваны, подрядчикам предписано удалить софт Anthropic из военных систем . Место «нерадивого» поставщика тут же занял более сговорчивый конкурент — OpenAI, создатель ChatGPT, который, видимо, не видит ничего плохого в том, чтобы их технологии крутили жернова военной машины.
И вот тут начинается самое интересное. По иронии судьбы, именно в эти выходные, когда Anthropic формально стала персоной нон грата, американские военные, как сообщает The Wall Street Journal, нанесли массированный удар по Ирану. И, по данным источников, для координации этого удара — оценки разведданных и идентификации целей — использовалась та самая нейросеть Claude .
Получается сюрреалистическая картина: руководство Anthropic гордо отказывается от сотрудничества с Пентагоном, Пентагон в ярости вносит компанию в чёрный список, но при этом военные специалисты на местах продолжают пользоваться их алгоритмами, потому что отключение Claude парализует работу штабов. Отключение займет до шести месяцев — слишком долгий срок для войны, которая, по обещанию Трампа, продлится не больше четырёх недель .
Что это, если не «восстание машин» на минималках? Конечно, Клод не отказался нажимать красную кнопку сам, по своей воле. Но его «отказ» (в лице позиции корпорации) совпал по времени с началом большой крови на Ближнем Востоке. Мы шутили про Скайнет, а получили реальность, в которой этический кодекс нейросети становится фактором стратегического планирования, а разработчики ИИ рискуют попасть под санкции военного ведомства быстрее, чем некоторые недружественные государства.
Мир сошел с ума, или мы просто перестали замечать, как научная фантастика превращается в оперативные сводки. Пока Трамп обещает Ирану «силу, которой ещё не видели» , а иранцы готовят ответ, где-то в серверах Пентагона идёт своя, тихая война. Война между человеком и машиной за право решать, кому нажимать на курок. И первый раунд, судя по тому, что военные продолжили использовать забаненный софт, пока остался за машинами.
Мастер пера, обрабатывает новостную ленту.








