Сотрудничество OpenAI с Пентагоном вызвало отток пользователей ChatGPT. Что говорят в компании?
4 марта 2026 в 1772623680
BBC News Русская служба
OpenAI столкнулась с негативной реакцией пользователей после объявления о сотрудничестве с Пентагоном. Согласно данным аналитической компании Sensor Tower, количество людей, удаляющих ChatGPT, выросло на 200% по сравнению с обычным уровнем. Гендиректор OpenAI Сэм Альтман пообещал добавить в контракт с Минобороны США запрет на использование систем компании для слежки за американцами, пишет Русская служба Би-би-си.
В компании OpenAI заявили, что согласовали изменения в «небрежном» соглашении, заключенном с правительством США, об использовании своих технологий ИИ в секретных военных операциях.
Гендиректор OpenAI Сэм Альтман заявил, что компания добавит в соглашение формулировку, включающую явный запрет на использование ее систем для шпионажа за американцами.
Соглашение было заключено в пятницу после конфликта между конкурентом OpenAI - компанией Anthropic - и Министерством обороны США, вызванного опасениями по поводу использования ее модели искусственного интеллекта Claude для массовой слежки и в полностью автономном оружии.
В заявлении, сделанном в субботу OpenAI, утверждается, что договор с Пентагоном содержит «больше ограничений, чем любое предыдущее соглашение о развертывании секретных систем искусственного интеллекта, включая соглашение с Anthropic».
Но в понедельник Альтман написал в X, что в соглашение вносятся дополнительные изменения, в том числе чтобы гарантировать, что система не будет «намеренно использоваться для внутреннего наблюдения за гражданами и подданными США».
Как сообщается, после внесения дополнительных поправок спецслужбы, такие как Агентство национальной безопасности, также не смогут использовать систему OpenAI без «дополнительных изменений» в контракте.
Альтман добавил, что компания совершила ошибку, поспешив «обнародовать изначальное заявление в пятницу».
«Эти вопросы чрезвычайно сложны и требуют четкой коммуникации», - сказал он.
OpenAI столкнулась с негативной реакцией пользователей после объявления о сотрудничестве с Пентагоном.
Согласно данным Sensor Tower, количество людей, удаляющих ChatGPT, резко возросло после того, как в пятницу было объявлено о партнерстве OpenAI с Министерством обороны.
Аналитическая компания сообщила, что среднесуточный показатель удалений вырос на 200% по сравнению с обычным уровнем.
Между тем Claude от Anthropic поднялся на вершину рейтинга App Store, где он оставался и во вторник.
Модель искусственного интеллекта была внесена в черный список администрацией Дональда Трампа после того, как компания Anthropic отказалась поступиться своим корпоративным принципом «красной линии», согласно которому ее технологии не должны использоваться для создания полностью автономного оружия.
Тем не менее позднее стало известно, что Claude применялся в ходе войны США и Израиля с Ираном: американский партнер Би-би-си - CBS News - сообщил, что по состоянию на вторник модель продолжала использоваться.
Пентагон отказался комментировать свои отношения с Anthropic.
Как ИИ используется в военной сфере
ИИ используется в военной сфере по-разному, например, для оптимизации логистики или быстрой обработки больших объемов информации.
США, Украина и НАТО используют технологии американской компании Palantir, которая предоставляет государственным заказчикам инструменты для анализа данных в целях сбора разведданных, наблюдения, борьбы с терроризмом и военных целей.
Министерство обороны Великобритании недавно подписало с этой компанией контракт на сумму 240 млн фунтов стерлингов.
В конце прошлого года Би-би-си пообщалась с некоторыми из тех, кто участвовал в интеграции оборонной платформы Maven на базе ИИ от Palantir в НАТО.
Это программное обеспечение объединяет огромный объем военной информации, от спутниковых данных до разведывательных отчетов, которая затем может быть проанализирована коммерческими системами искусственного интеллекта, такими как Claude, чтобы помочь принимать «более быстрые, более эффективные и, в конечном итоге, более смертоносные решения, когда это уместно», - сказал Луис Мосли, глава британского подразделения Palantir.
Но крупные языковые модели ИИ могут допускать ошибки или даже выдумывать вещи - это явление известно как «галлюцинации».
Подполковник Аманда Густав, главный специалист по данным в оперативной группе Maven НАТО, подчеркнула, что этим системам необходим контроль со стороны человека и что «никогда не будет так», чтобы ИИ «принимал решения за нас».
Palantir, в отличие от Anthropic, не поддерживает полный запрет на автономное оружие, но считает, что в процессе должен участвовать человек.
Однако профессор Оксфордского университета Мариаросария Таддео заявила Би-би-си, что с уходом Anthropic из Пентагона «самый заботящийся о безопасности участник» теперь «вышел из игры».
«Это реальная проблема», - добавила она.
- Война США и Израиля с Ираном: ВМФ США потопили военный корабль Ирана у берегов Шри-Ланки — глава Пентагона
- Российский газовый танкер «Арктик Метагаз» загорелся и затонул между Мальтой и Ливией. Россия обвинила Украину в ударе дронов
- Война в Украине: удар по поезду в Николаеве и атака морских дронов на российский танкер у берегов Мальты