Риски OpenAI и Пентагона: эксперт МТС о безопасности данных

Сотрудничество OpenAI с Министерством обороны США вызывает серьёзные опасения у экспертов по кибербезопасности и лидеров технологической отрасли. Размытые формулировки пользовательских соглашений и использование искусственного интеллекта в секретных сетях ведомства ставят под угрозу данные миллионов пользователей по всему миру.

Руководитель отдела информационной безопасности MWS AI (входит в МТС Web Services) Андрей Коршунов указывает на риски, связанные с неопределенностью в пользовательском соглашении OpenAI. По его словам, документ не даёт чёткого понимания, как хранятся и используются данные после попадания в нейросеть. Эксперт предупреждает о потенциальной угрозе для граждан и компаний из стран, которые США могут счесть «недружественными». В рамках работы сервиса ChatGPT происходит сбор метаданных: IP-адресов, типов устройств, браузеров и примерного местоположения. Сотрудники OpenAI могут просматривать диалоги, сообщения, файлы и изображения для улучшения моделей или расследования нарушений правил использования. Информация может передаваться подрядчикам, облачным сервисам и государственным органам при наличии законного запроса.

Генеральный директор OpenAI Сэм Альтман подтвердил интеграцию моделей искусственного интеллекта в закрытые «секретные сети» Министерства обороны США. После анонса сделки аналитики Sensor Tower зафиксировали рост числа людей, удаляющих приложение ChatGPT, на 200% по сравнению с обычным уровнем. В ответ на критику руководство OpenAI пообещало внести изменения в соглашение с правительством. Сэм Альтман заявил о планах добавить в контракт явный запрет на использование систем компании для шпионажа за гражданами США. По утверждению представителей разработчика, новый договор содержит больше ограничений на развёртывание секретных систем ИИ, чем предыдущее соглашение ведомства с компанией Anthropic.

Компания Anthropic подала судебный иск против Пентагона, оспаривая включение в список неблагонадёжных поставщиков. Ведомство присвоило компании статус фактора риска для цепочки поставок, что ограничивает использование её технологий федеральными структурами. Представители Anthropic связывают это решение с отказом разрешить применение своих разработок для массовой слежки и создания автономных систем вооружения. Иск поддержали около 40 сотрудников Google и OpenAI, выступающих в качестве частных лиц, включая руководителя разработки Gemini Джеффа Дина. Они направили в суд документ, в котором назвали действия Пентагона местью, вредящей интересам общества. По мнению авторов обращения, инструменты тотальной слежки представляют риск для демократических институтов даже в ответственных руках.

  • Искусственный интеллект не способен адекватно оценивать сопутствующий ущерб при выборе целей, как это делает человек.
  • Существует риск критических ошибок из-за разницы между данными обучающей выборки и реальной боевой обстановкой.
  • Проблема «галлюцинаций» нейросетей делает их применение в военных операциях опасным без жесткого контроля со стороны оператора.

По данным экспертов, объединение разрозненных массивов данных о гражданах с помощью ИИ позволяет властям составлять подробные досье на сотни миллионов человек в режиме реального времени.

TOP

Экономика

Tags