Skip Navigation
Telegram
🤖 Microsoft готовит корпоративную альтернативу OpenClaw с усиленной защитой


Компания Microsoft работает над созданием нового ИИ-агента, функционально похожего на нашумевший OpenClaw. Ключевое отличие — ориентация на корпоративный сектор и принципиально иной подход к безопасности. В отличие от рискованного открытого исходного кода OpenClaw, новый агент получит встроенные средства строгого контроля доступа и защиты данных. Это позволит компаниям автоматизировать сложные задачи, не подвергая риску конфиденциальную информацию.

#Microsoft #ИИДляБизнеса #БезопасностьИИ
Telegram
🤖 ИИ доводит до беды: юрист предупреждает о рисках массовых жертв


Юрист, известный по делам о суицидах на почве «психоза», вызванного общением с ИИ-ботами, предупреждает о новой угрозе. Технологии искусственного интеллекта теперь всё чаще упоминаются в расследованиях инцидентов с массовыми жертвами. По его словам, развитие ИИ происходит настолько быстро, что меры безопасности и правовое регулирование просто не успевают за ним, создавая серьёзные риски для общества.

#БезопасностьИИ #ЮридическиеРиски #ИИпсихоз
Telegram
🤖 Громкое решение Пентагона: Anthropic объявят угрозой для цепочек поставок


Министерство обороны США (Пентагон) инициировало процедуру, чтобы официально признать компанию Anthropic, разработчика ИИ Claude, риском для национальных цепочек поставок. Это может привести к запрету на закупки её технологий для государственных нужд. Решение вызвало резкую реакцию: президент США в своём посте заявил: «Он нам не нужен, мы его не хотим и больше не будем иметь с ним дела», подчеркнув решимость прекратить сотрудничество.

#Anthropic #БезопасностьИИ #Пентагон
Telegram
🤖 Шокирующий баг Microsoft: Copilot читал конфиденциальные письма пользователей


Компания Microsoft подтвердила наличие опасной ошибки в своих офисных продуктах. Технический сбой позволял искусственному интеллекту Copilot, интегрированному в Office, читать и анализировать конфиденциальные электронные письма платных пользователей. Этот баг фактически обходил установленные политики безопасности и защиты данных, предназначенные для изоляции личной информации пользователей от ИИ-ассистента. Инцидент вызвал серьёзные вопросы о надёжности систем конфиденциальности в продуктах с интеграцией ИИ.

#MicrosoftCopilot #УтечкаДанных #БезопасностьИИ
Telegram
🤖 Безопасности в xAI пришел конец?


🤖 Безопасности в xAI пришел конец? Маск делает Grok "безумнее"

Бывший сотрудник xAI заявил, что Илон Маск лично и "активно" участвует в разработке, нацеливаясь сделать нейросеть Grok более "необузданной" (unhinged). Это прямое указание основателя снизить внутренние ограничения и фильтры бота. Такая стратегия резко контрастирует с публичными дискуссиями о безопасном ИИ и вызывает опасения экспертов относительно возможных рисков, связанных с уменьшением "безопасных гарантий" в продукте.

#xAI #Grok #БезопасностьИИ
Telegram
🤖 OpenAI расформировала команду по контролю над ИИ: кто теперь отвечает за безопасность?


OpenAI объявила о расформировании своей команды по «миссионерскому согласованию» (Superalignment), которая была создана в 2023 году для решения долгосрочных рисков, связанных с развитием сверхмощного ИИ. Лидер команды Илья Суцкевер теперь займёт позицию главного футуролога компании. Остальные члены коллектива интегрированы в другие исследовательские группы OpenAI. Компания заявила, что вопросы безопасности теперь будут решаться на институциональном уровне, а не в рамках отдельного подразделения.

#OpenAI #БезопасностьИИ #Суцкевер