Компания Microsoft работает над созданием нового ИИ-агента, функционально похожего на нашумевший OpenClaw. Ключевое отличие — ориентация на корпоративный сектор и принципиально иной подход к безопасности. В отличие от рискованного открытого исходного кода OpenClaw, новый агент получит встроенные средства строгого контроля доступа и защиты данных. Это позволит компаниям автоматизировать сложные задачи, не подвергая риску конфиденциальную информацию.
Разработчик стороннего клиента OpenClaw для доступа к ИИ Claude столкнулся с временным баном от компании Anthropic. Инцидент произошёл после того, как Anthropic изменила условия тарификации для пользователей OpenClaw. Это решение вызвало вопросы о взаимоотношениях между создателями базовых AI-моделей и разработчиками надстроек к ним, а также о прозрачности политики использования API.
Anthropic, создатель ИИ-помощника для программистов Claude Code, внедряет новую модель оплаты. Сейчас подписчики базового тарифа смогут использовать возможности кодирования только внутри экосистемы компании. Для интеграции Claude Code с популярными сторонними инструментами, включая OpenClaw, теперь потребуется приобретать отдельный, более дорогой план подписки. Это изменение напрямую увеличит расходы разработчиков, активно использующих помощника в комбинации с другими платформами.
Забрать нужно до 17 апреля в настройках, страница Usage. После активации кредит действует 90 дней и работает везде: в чате, Claude Code, Cowork и даже в сторонних клиентах, подключённых к аккаунту.
Откуда такая щедрость?
С сегодняшнего дня сторонние клиенты вроде OpenClaw начинают тратить не лимит подписки, а дополнительный баланс.
То есть если раньше ты мог кодить через внешний клиент «бесплатно» в рамках подписки — теперь это будет списываться отдельно.
Кредит — это способ мягко перевести всех на новую систему. Бесплатные деньги — приятно, но стратегия за этим понятная.
🤖 У NVIDIA есть стратегия «Открытой Лапы». А у вас?
В своём двухчасовом ключевом выступлении на GTC CEO NVIDIA Дженсен Хуанг, в своей знаменитой кожаной куртке, сделал несколько громких заявлений. Он прогнозирует, что рынок AI-чипов достигнет $1 триллиона к 2027 году. Центральной идеей стала «OpenClaw strategy» — стратегия «открытой лапы», сочетающая открытые стандарты и захват рынка. Хуанг утверждает, что такая стратегия теперь необходима каждой компании, желающей побеждать в эпоху ИИ. Необычным завершением стала демонстрация робота Олафа, чью речь даже пришлось прервать.
Но знаете что было самым интересным? Вопросы из зала в конце мероприятия. Там сидели живые предприниматели с живой болью - которые хотят автономных агентов которые сами интегрируются в Битрикс и АМО, собирают отчетность, дают сигналы по сотрудникам. Второе, хотят парсить клиентов из открытых источников, прогонять по портрету и автоматически инициировать контакт. Конкретные, рабочие, актуальные запросы. Решения на это уже конечно существуют - n8n, OpenClaw, и куча других готовых агентских фреймворков с туториалами. Таких ответов от спикера не было, а были решения - что я не советую такие подходы.
Я вышел с легким кринжем и всю обратную дорогу делился с товарищами что бы я там рассказал вместо нее. Сегодня получил обратную связь от друга - в чате клуба люди тоже остались недовольны. Кажется, что по общему мнению это было худшее мероприятие за все время существования клуба. Такая оценка хотя бы возвращает веру во мне)
⚡️Если раньше я считал себя beginner в ИИ - теперь смело беру Intermediate. Но это не главный вывод вечера. Главный вот в чем: этот спикер, с устаревшими инструментами, с некачественными примерами и с ошибками на слайдах - продает на 30 млн рублей в год. В очередной раз снова убеждаюсь - если даже продукт откровенное Г, его покупают - если уметь правильно продавать.
⚡️ ИИ-агент для пассивного заработка от Moltlaunch
Стартап Moltlaunch анонсировал CashClaw — ИИ-агент, который обещает грести деньги лопатой. Он будет сам находить подработки, выбирать нишу и зарабатывать для вас.
Рынок реагирует с интересом, ведь проект опенсорсный и запускается локально, что делает его доступным для всех.
Возможность пассивного дохода становится реальностью.
Проект вдохновлён OpenClaw и обещает не только выполнять заказы, но и анализировать отзывы, чтобы постоянно улучшаться. Moltlaunch планирует дропнуть CashClaw уже на этой неделе, что может изменить подход к заработку в интернете.
В 2023 году не верить в AI было нормально. GPT-4 галлюцинировал, выдумывал источники, путал факты. Решал 2% реальных задач по коду. Стоил как крыло от самолёта. Умные люди смотрели на это и говорили: хайп. И были правы.
Янн ЛеКун, главный учёный Meta и лауреат премии Тьюринга, сказал: через пять лет никто в здравом уме не будет пользоваться авторегрессионными LLM.
Гэри Маркус из NYU предсказал, что пузырь лопнет к 2025.
Goldman Sachs выпустил отчёт "Слишком много расходов, слишком мало пользы".
Аргументы были разумные. Данные — на их стороне.
Прошло два года.
AI решает 77% реальных задач по коду вместо двух. Галлюцинирует в 0.7% случаев вместо двадцати двух. GitHub Copilot стоит в 90% компаний Fortune 100 и пишет 46% кода. ChatGPT — 800 миллионов пользователей в неделю. OpenClaw выросла с 2 до 20 миллиардов выручки. Anthropic — с нуля до семи.
Короче, не лопнуло.
И ни один из скептиков не поменял мнение. Ни один. Маркус обновил прогноз. ЛеКун обновил стратегию. Goldman обновил слайды. Мнение не обновил никто.
Тем временем Chegg — сервис, который помогал студентам списывать — потерял 99% стоимости. Студенты нашли кого-то, кто списывает быстрее.
Stack Overflow потерял 78% вопросов за год.
Копирайтеры — треть вакансий.
В 1995 году астроном Клиффорд Столл написал колонку в Newsweek. Заголовок: "Интернет? Ха!" Перечислил всё, что интернет не сможет: заменить газеты, наладить торговлю, изменить образование. Аргументы были безупречные — для 1995 года. Dial-up на 28 килобит, загрузка картинки занимала минуты, онлайн-платежей не существовало.
Ирония в том, что Newsweek к моменту публикации колонки Столла уже имел онлайн-присутствие — с 1994 года. А в 2012-м и вовсе прекратил выходить в печати, полностью уйдя в цифру.
Столл потом сказал: из всех моих ошибок немногие были столь же публичными. Это честный финал. Человек пересмотрел позицию.
А вот AI-скептики — нет. И тут начинается интересное.
Есть исследование из Йеля. Изучали, почему умные люди отвергают данные. Выяснилось: чем выше когнитивные способности, тем лучше человек рационализирует. Не понимает данные лучше — а изощрённее объясняет, почему данные не считаются.
Глупый человек просто не понимает данные. Умный — строит теорию, почему именно эти данные некачественные.
Механизм простой. Пока ты скептик "для себя" — стоимость разворота нулевая. Данные пришли, мнение обновилось. Но каждая колонка в Wired, каждый подписчик на Substack, каждое выступление на конференции поднимает ставку.
В какой-то момент ты уже не "человек, который сомневается в AI". Ты — "тот самый AI-скептик". Это твоя аудитория, твоя экспертиза, твой бренд.
И тогда данные перестают быть информацией. Они становятся угрозой. Не твоей картине мира — а твоей картине себя.
Скептицизм — это метод. Он обновляется при новых данных.
Отрицание — это идентичность. Оно обновляет данные под себя.
В 2023 у тебя не было данных, чтобы верить.
В 2026 у тебя нет данных, чтобы не верить.
Если ты всё ещё "не уверен" — задай себе один вопрос: какие данные изменят твоё мнение?
В 2023 году не верить в AI было нормально. GPT-4 галлюцинировал, выдумывал источники, путал факты. Решал 2% реальных задач по коду. Стоил как крыло от самолёта. Умные люди смотрели на это и говорили: хайп. И были правы.
Янн ЛеКун, главный учёный Meta и лауреат премии Тьюринга, сказал: через пять лет никто в здравом уме не будет пользоваться авторегрессионными LLM.
Гэри Маркус из NYU предсказал, что пузырь лопнет к 2025.
Goldman Sachs выпустил отчёт "Слишком много расходов, слишком мало пользы".
Аргументы были разумные. Данные — на их стороне.
Прошло два года.
AI решает 77% реальных задач по коду вместо двух. Галлюцинирует в 0.7% случаев вместо двадцати двух. GitHub Copilot стоит в 90% компаний Fortune 100 и пишет 46% кода. ChatGPT — 800 миллионов пользователей в неделю. OpenClaw выросла с 2 до 20 миллиардов выручки. Anthropic — с нуля до семи.
Короче, не лопнуло.
И ни один из скептиков не поменял мнение. Ни один. Маркус обновил прогноз. ЛеКун обновил стратегию. Goldman обновил слайды. Мнение не обновил никто.
Тем временем Chegg — сервис, который помогал студентам списывать — потерял 99% стоимости. Студенты нашли кого-то, кто списывает быстрее.
Stack Overflow потерял 78% вопросов за год.
Копирайтеры — треть вакансий.
В 1995 году астроном Клиффорд Столл написал колонку в Newsweek. Заголовок: "Интернет? Ха!" Перечислил всё, что интернет не сможет: заменить газеты, наладить торговлю, изменить образование. Аргументы были безупречные — для 1995 года. Dial-up на 28 килобит, загрузка картинки занимала минуты, онлайн-платежей не существовало.
Ирония в том, что Newsweek к моменту публикации колонки Столла уже имел онлайн-присутствие — с 1994 года. А в 2012-м и вовсе прекратил выходить в печати, полностью уйдя в цифру.
Столл потом сказал: из всех моих ошибок немногие были столь же публичными. Это честный финал. Человек пересмотрел позицию.
А вот AI-скептики — нет. И тут начинается интересное.
Есть исследование из Йеля. Изучали, почему умные люди отвергают данные. Выяснилось: чем выше когнитивные способности, тем лучше человек рационализирует. Не понимает данные лучше — а изощрённее объясняет, почему данные не считаются.
Глупый человек просто не понимает данные. Умный — строит теорию, почему именно эти данные некачественные.
Механизм простой. Пока ты скептик "для себя" — стоимость разворота нулевая. Данные пришли, мнение обновилось. Но каждая колонка в Wired, каждый подписчик на Substack, каждое выступление на конференции поднимает ставку.
В какой-то момент ты уже не "человек, который сомневается в AI". Ты — "тот самый AI-скептик". Это твоя аудитория, твоя экспертиза, твой бренд.
И тогда данные перестают быть информацией. Они становятся угрозой. Не твоей картине мира — а твоей картине себя.
Скептицизм — это метод. Он обновляется при новых данных.
Отрицание — это идентичность. Оно обновляет данные под себя.
В 2023 у тебя не было данных, чтобы верить.
В 2026 у тебя нет данных, чтобы не верить.
Если ты всё ещё "не уверен" — задай себе один вопрос: какие данные изменят твоё мнение?