В пятницу Anthropic подала в федеральный суд Калифорнии два письменных показания под присягой, опровергая заявление Пентагона о «неприемлемом риске для национальной безопасности». Компания утверждает, что позиция властей основана на технических недопониманиях и аргументах, не звучавших за месяцы переговоров. При этом в документах раскрыто, что за неделю до этого Пентагон информировал Anthropic о почти достигнутом соглашении, что противоречит публичному заявлению Трампа о провале сотрудничества.
Пентагон обосновал решение о признании Anthropic угрозой для оборонной цепочки поставок. Ключевая претензия — публичные «красные линии» компании, то есть внутренние правила, запрещающие использование её ИИ в военных целях. В Минобороны считают, что эта этическая позиция создаёт «неприемлемый риск», так как теоретически может привести к отказу работы критически важных систем в разгар боевых действий. Это ставит под вопрос надёжность Anthropic как поставщика технологий для национальной безопасности.
После резкого разрыва отношений Пентагон и компания Anthropic, судя по всему, не намерены восстанавливать партнерство. Согласно отчету, американское оборонное ведомство уже активно разрабатывает собственные или альтернативные решения, чтобы заменить ИИ-технологии Anthropic. Этот шаг подчеркивает стремление Пентагона обеспечить технологическую независимость и безопасность в критически важной сфере искусственного интеллекта.
📬 Этика ИИ в госструктурах: осторожность превыше всего
Сэм Альтман обсуждает с Пентагоном ограничения на использование ИИ для слежки, акцентируя внимание на этических стандартах. Это подчеркивает важность соблюдения конфиденциальности и контроля в чувствительных областях.
Отсутствие новых прогнозов от Альтмана свидетельствует о сложностях и необходимости осторожности при интеграции ИИ в госструктуры.
Учитывай этические аспекты при внедрении ИИ в своей компании.
Альтман и Пентагон обсуждают не только слежку, но и другие потенциальные применения ИИ, которые могут нарушать права граждан. Это отражает глобальную тенденцию к усиленному контролю над технологиями в интересах общества. Руководители должны быть готовы к внедрению строгих этических стандартов.
🤖 Anthropic подает в суд на Пентагон из-за "клейма" в цепочке поставок
Компания Anthropic, создатель Claude, намерена через суд оспорить решение Министерства обороны США (DOD), классифицировавшее её как риск для цепочек поставок. Гендиректор Дэрио Амодеи заявил, что это обозначение необоснованно и не отражает реальной ситуации, так как подавляющее большинство клиентов компании не связаны с оборонным сектором и не попадают под действие этого ограничения. Судебный процесс может создать важный прецедент в регулировании ИИ.
Министерство обороны США (Пентагон) инициировало процедуру, чтобы официально признать компанию Anthropic, разработчика ИИ Claude, риском для национальных цепочек поставок. Это может привести к запрету на закупки её технологий для государственных нужд. Решение вызвало резкую реакцию: президент США в своём посте заявил: «Он нам не нужен, мы его не хотим и больше не будем иметь с ним дела», подчеркнув решимость прекратить сотрудничество.