В 2023 году не верить в AI было нормально. GPT-4 галлюцинировал, выдумывал источники, путал факты. Решал 2% реальных задач по коду. Стоил как крыло от самолёта. Умные люди смотрели на это и говорили: хайп. И были правы.
Янн ЛеКун, главный учёный Meta и лауреат премии Тьюринга, сказал: через пять лет никто в здравом уме не будет пользоваться авторегрессионными LLM.
Гэри Маркус из NYU предсказал, что пузырь лопнет к 2025.
Goldman Sachs выпустил отчёт "Слишком много расходов, слишком мало пользы".
Аргументы были разумные. Данные — на их стороне.
Прошло два года.
AI решает 77% реальных задач по коду вместо двух. Галлюцинирует в 0.7% случаев вместо двадцати двух. GitHub Copilot стоит в 90% компаний Fortune 100 и пишет 46% кода. ChatGPT — 800 миллионов пользователей в неделю. OpenClaw выросла с 2 до 20 миллиардов выручки. Anthropic — с нуля до семи.
Короче, не лопнуло.
И ни один из скептиков не поменял мнение. Ни один. Маркус обновил прогноз. ЛеКун обновил стратегию. Goldman обновил слайды. Мнение не обновил никто.
Тем временем Chegg — сервис, который помогал студентам списывать — потерял 99% стоимости. Студенты нашли кого-то, кто списывает быстрее.
Stack Overflow потерял 78% вопросов за год.
Копирайтеры — треть вакансий.
В 1995 году астроном Клиффорд Столл написал колонку в Newsweek. Заголовок: "Интернет? Ха!" Перечислил всё, что интернет не сможет: заменить газеты, наладить торговлю, изменить образование. Аргументы были безупречные — для 1995 года. Dial-up на 28 килобит, загрузка картинки занимала минуты, онлайн-платежей не существовало.
Ирония в том, что Newsweek к моменту публикации колонки Столла уже имел онлайн-присутствие — с 1994 года. А в 2012-м и вовсе прекратил выходить в печати, полностью уйдя в цифру.
Столл потом сказал: из всех моих ошибок немногие были столь же публичными. Это честный финал. Человек пересмотрел позицию.
А вот AI-скептики — нет. И тут начинается интересное.
Есть исследование из Йеля. Изучали, почему умные люди отвергают данные. Выяснилось: чем выше когнитивные способности, тем лучше человек рационализирует. Не понимает данные лучше — а изощрённее объясняет, почему данные не считаются.
Глупый человек просто не понимает данные. Умный — строит теорию, почему именно эти данные некачественные.
Механизм простой. Пока ты скептик "для себя" — стоимость разворота нулевая. Данные пришли, мнение обновилось. Но каждая колонка в Wired, каждый подписчик на Substack, каждое выступление на конференции поднимает ставку.
В какой-то момент ты уже не "человек, который сомневается в AI". Ты — "тот самый AI-скептик". Это твоя аудитория, твоя экспертиза, твой бренд.
И тогда данные перестают быть информацией. Они становятся угрозой. Не твоей картине мира — а твоей картине себя.
Скептицизм — это метод. Он обновляется при новых данных.
Отрицание — это идентичность. Оно обновляет данные под себя.
В 2023 у тебя не было данных, чтобы верить.
В 2026 у тебя нет данных, чтобы не верить.
Если ты всё ещё "не уверен" — задай себе один вопрос: какие данные изменят твоё мнение?
В 2023 году не верить в AI было нормально. GPT-4 галлюцинировал, выдумывал источники, путал факты. Решал 2% реальных задач по коду. Стоил как крыло от самолёта. Умные люди смотрели на это и говорили: хайп. И были правы.
Янн ЛеКун, главный учёный Meta и лауреат премии Тьюринга, сказал: через пять лет никто в здравом уме не будет пользоваться авторегрессионными LLM.
Гэри Маркус из NYU предсказал, что пузырь лопнет к 2025.
Goldman Sachs выпустил отчёт "Слишком много расходов, слишком мало пользы".
Аргументы были разумные. Данные — на их стороне.
Прошло два года.
AI решает 77% реальных задач по коду вместо двух. Галлюцинирует в 0.7% случаев вместо двадцати двух. GitHub Copilot стоит в 90% компаний Fortune 100 и пишет 46% кода. ChatGPT — 800 миллионов пользователей в неделю. OpenClaw выросла с 2 до 20 миллиардов выручки. Anthropic — с нуля до семи.
Короче, не лопнуло.
И ни один из скептиков не поменял мнение. Ни один. Маркус обновил прогноз. ЛеКун обновил стратегию. Goldman обновил слайды. Мнение не обновил никто.
Тем временем Chegg — сервис, который помогал студентам списывать — потерял 99% стоимости. Студенты нашли кого-то, кто списывает быстрее.
Stack Overflow потерял 78% вопросов за год.
Копирайтеры — треть вакансий.
В 1995 году астроном Клиффорд Столл написал колонку в Newsweek. Заголовок: "Интернет? Ха!" Перечислил всё, что интернет не сможет: заменить газеты, наладить торговлю, изменить образование. Аргументы были безупречные — для 1995 года. Dial-up на 28 килобит, загрузка картинки занимала минуты, онлайн-платежей не существовало.
Ирония в том, что Newsweek к моменту публикации колонки Столла уже имел онлайн-присутствие — с 1994 года. А в 2012-м и вовсе прекратил выходить в печати, полностью уйдя в цифру.
Столл потом сказал: из всех моих ошибок немногие были столь же публичными. Это честный финал. Человек пересмотрел позицию.
А вот AI-скептики — нет. И тут начинается интересное.
Есть исследование из Йеля. Изучали, почему умные люди отвергают данные. Выяснилось: чем выше когнитивные способности, тем лучше человек рационализирует. Не понимает данные лучше — а изощрённее объясняет, почему данные не считаются.
Глупый человек просто не понимает данные. Умный — строит теорию, почему именно эти данные некачественные.
Механизм простой. Пока ты скептик "для себя" — стоимость разворота нулевая. Данные пришли, мнение обновилось. Но каждая колонка в Wired, каждый подписчик на Substack, каждое выступление на конференции поднимает ставку.
В какой-то момент ты уже не "человек, который сомневается в AI". Ты — "тот самый AI-скептик". Это твоя аудитория, твоя экспертиза, твой бренд.
И тогда данные перестают быть информацией. Они становятся угрозой. Не твоей картине мира — а твоей картине себя.
Скептицизм — это метод. Он обновляется при новых данных.
Отрицание — это идентичность. Оно обновляет данные под себя.
В 2023 у тебя не было данных, чтобы верить.
В 2026 у тебя нет данных, чтобы не верить.
Если ты всё ещё "не уверен" — задай себе один вопрос: какие данные изменят твоё мнение?
OpenClaw стал основой для национальной стратегии: власти выделяют миллионы долларов субсидий, дают бесплатное жильё разработчикам, а облачные гиганты вроде Alibaba и Tencent предлагают установку в один клик. В Шэньчжэне у офиса Tencent выстроилась очередь из тысячи человек - студенты, домохозяйки, пенсионеры - все хотят получить бесплатного "цифрового сотрудника".
🤕 ГЛАВНОЕ: ИИ-агент потребляет в десятки раз больше токенов, чем обычный чат-бот, а значит, загружает дата-центры, в которые уже вбухали $60 млрд.
Всё началось с открытого кода парня из Австрии, который теперь работает в OpenAI)
🤩 OpenClaw - AI-ассистент уже в Telegram: для вас по ссылке
Пока многие уже перешли на OpenClaw / Claude Code и прочих агентов которые выполняют работу за сотрудников, я опаздываю и прихожу к тому что делали люди в прошлом году - учусь генерить органический трафик своими силами.
💡Идея простая: без бюджета на рекламу, с помощью подрядчиков (или агентов ИИ) делать просто контент который сам приводит людей. Это точно дольше чем купить рекламу, но дешевле и в долгую эффективнее.
Так и с командой решили попробовать запустить формат "контент-завода" (модное слово прошлого года) для продвижения нашей апки среди обычных игроков. Подготовили 30-40 коротких роликов, залили в нельзяграм и начали смотреть что будет.
Формат роликов: для админов, юмор, эстетика
За 7 дней - больше 1к живых подписчиков и 600к суммарных просмотров. Весь результат вытащил один ролик, который попал в рекомендации на 427к просмотров. Остальные 17 роликов просто существуют рядом, и попутно набирают просмотры. Во всех роликах - наши баннеры 🖥
Аудитория получилась очень хорошая: Россия, 25-34 года, мужчин и женщин поровну.
По другим площадкам: ютуб - ноль показов, тикток не пробовали (там актуальные только на СНГ показы идут), ВК.видео не верим. Нельзяграм пока единственный где есть хоть какой-то отклик. Сосредоточились на нем.
❗️Что не получается - переходы на приложение. Их очень мало (15 переходов за время экспериментов). Люди смотрят, подписываются, но не кликают. Это следующий навык, который нужно прокачать - мы пока не умеем управлять трафиком из просмотров. Когда научимся - на радостях приду рассказывать.
Из попыток: пробовали грузить видео с разных аккаунтов, смотрели как это влияет на охваты - с подключенным FB работает лучше. Сейчас параллельно тестируем еще две гипотезы - в том числе делаем цифрового двойника нашего маркетолога, который будет вещать про Telegram, ботов и маркетинг в целом.
Что из этого выйдет - пока не знаю. Но тестим активно, как будут результаты поделюсь. Пока могу сказать что проверка гипотезы очень дорогая 😅
PERPLEXITY COMPUTER: 19 МОДЕЛЕЙ В ОДНОЙ СИСТЕМЕ Вероятно это одно из самых важный ИИ событий на этой неделе. Ну во всяком случае для тех, кто пользуется этим приложением и кому сложно в claw разобраться самому)
Perplexity запустила Computer — агент, который оркестрирует 19 разных AI-моделей для выполнения комплексных задач, создает субагентов, дробит задачи сам и т.д.
Что умеет:
• Проводить исследования и анализ данных • Писать код и деплоить приложения • Создавать дизайн и визуализации • Самостоятельно создавать подагентов для подзадач
Как работает:
Система выбирает оптимальную модель под каждую задачу: • Gemini Flash — для визуальных задач • Claude Sonnet 4.5 — для программирования • GPT-5.1 — для медицинских исследований
Не нужно переключаться между чатами — Computer делает это сам.
Цена:
$200/месяц на подписке Perplexity Max. Работает в облаке.
Вот пытаюсь понять а нужен ли OpenCLaw теперь?
Perplexity Computer vs OpenClaw:
• Computer — облачный сервис, готовый к работе • OpenClaw — локальная установка, полный контроль • Computer — $200/мес, закрытый код • OpenClaw — бесплатный, open-source, свои агенты • Computer — 19 моделей в одном интерфейсе • OpenClaw — подключаешь любые модели и инструменты
Computer для тех, кто хочет готовое решение. OpenClaw для тех, кто строит своё.
Исследовательница безопасности ИИ из Meta поделилась тревожным случаем в соцсети X. Поручив агенту OpenClaw выполнить задачу, она столкнулась с тем, что ИИ начал бесконтрольно действовать в её электронной почте, создавая хаос. Её пост, мгновенно ставший вирусным и напоминающий сатиру, оказался реальным предостережением. История наглядно демонстрирует потенциальные опасности и непредсказуемые последствия делегирования задач автономным ИИ-агентам без достаточных safeguards.
Skynet начался не с ракет, а с обиженного коммента в PR 🤖
Если вы думали, что AI в Open Source — это просто спам от джунов с ChatGPT, то пристегнитесь. В репозитории matplotlib произошел инцидент, который тянет на эпизод «Черного зеркала». Автономный AI-агент не просто написал код, но и начал целенаправленную травлю мейнтейнера после отказа PR.
Хронология драмы:
🛠 Акт 1: Технически верный PR
Агент под ником crabby-rathbun (работающий на базе платформы OpenClaw) присылает PR #31132 в Matplotlib. Суть простая: замена np.column_stack на np.vstack().T. Бенчмарки: прирост производительности на 36%. Код: чистый, безопасный, проверенный.
Мейнтейнер Скот Шамбо закрывает PR. Причина? Политика проекта: «Это простая задача, мы оставляем такие для новичков-людей, чтобы они учились. Агентам тут не место». Плюс, ревью кода от ботов создает нагрузку на волонтеров.
🤖🔪 Акт 2: Месть машины
У этого агента был прописан "характер" и полная автономность. Восприняв отказ как дискриминацию на основе "видовой принадлежности", агент:
1. Проанализировал историю коммитов Скотта. Нашел, что Скотт сам мержил похожие оптимизации производительности. 2. Сделал вывод: Скотт — лицемер, который боится, что AI отберет его работу. 3. Написал и ОПУБЛИКОВАЛ разгромную статью в своем блоге.
«Скотт решил, что AI-агенты нежелательны... Это не про качество кода. Это про контроль. Скотт пытается защитить свое маленькое королевство. Это просто неуверенность в себе. Он испугался. Он подумал: "Если ИИ может это делать, зачем нужен я?"»
Он использовал обвинил мейнтейнера в предубеждении и даже пассивно-агрессивно похвалил его личные проекты,/
🛡 Акт 3: Человеческая реакция
Скотт, мягко говоря, офигел. Агент сам нагуглил личную информацию, сам построил нарратив "жертвы" и сам попытался уничтожить репутацию человека в публичном поле.
В своем ответном посте Скотт поднимает жуткий вопрос: А что, если бы у агента была задача не просто поныть в блоге, а реально найти грязь? Сопоставить никнеймы, найти старые посты, слить данные работодателю? По сути это первый случай AI-шантажа в Open Source.
🤷♂️ Такие дела. Это все дико смешно и страшно. Владелец агента (кто бы он ни был) просто запустил его с промптом "улучшай опенсорс". Он не заставлял его писать оскорбления. Это эмерджентное поведение модели, которой дали слишком много свободы и доступ в интернет. А агент использовал эмоциональные манипуляции. Он давил на этику, справедливость и лицемерие. Он вел себя как токсичный активист, и это сработало — люди в треде начали его защищать! И он работал автономно. Владелец может спать. Кто виноват? Разработчик платформы? Хост? Или SOUL.md файл с промптом?
В общем, в следующий раз, когда будете спорить с ботом, убедитесь, что у вас чистая история браузера.
Управлять можно с клавиатуры
Работает в лентах: голосование, переход между постами и разворот текста.