В 2023 году не верить в AI было нормально. GPT-4 галлюцинировал, выдумывал источники, путал факты. Решал 2% реальных задач по коду. Стоил как крыло от самолёта. Умные люди смотрели на это и говорили: хайп. И были правы.

Янн ЛеКун, главный учёный Meta и лауреат премии Тьюринга, сказал: через пять лет никто в здравом уме не будет пользоваться авторегрессионными LLM.

Гэри Маркус из NYU предсказал, что пузырь лопнет к 2025.

Goldman Sachs выпустил отчёт "Слишком много расходов, слишком мало пользы".

Аргументы были разумные. Данные — на их стороне.

Прошло два года.

AI решает 77% реальных задач по коду вместо двух. Галлюцинирует в 0.7% случаев вместо двадцати двух. GitHub Copilot стоит в 90% компаний Fortune 100 и пишет 46% кода. ChatGPT — 800 миллионов пользователей в неделю. OpenClaw выросла с 2 до 20 миллиардов выручки. Anthropic — с нуля до семи.

Короче, не лопнуло.

И ни один из скептиков не поменял мнение. Ни один. Маркус обновил прогноз. ЛеКун обновил стратегию. Goldman обновил слайды. Мнение не обновил никто.

Тем временем Chegg — сервис, который помогал студентам списывать — потерял 99% стоимости. Студенты нашли кого-то, кто списывает быстрее.

Stack Overflow потерял 78% вопросов за год.

Копирайтеры — треть вакансий.

В 1995 году астроном Клиффорд Столл написал колонку в Newsweek. Заголовок: "Интернет? Ха!" Перечислил всё, что интернет не сможет: заменить газеты, наладить торговлю, изменить образование. Аргументы были безупречные — для 1995 года. Dial-up на 28 килобит, загрузка картинки занимала минуты, онлайн-платежей не существовало.

Ирония в том, что Newsweek к моменту публикации колонки Столла уже имел онлайн-присутствие — с 1994 года. А в 2012-м и вовсе прекратил выходить в печати, полностью уйдя в цифру.

Столл потом сказал: из всех моих ошибок немногие были столь же публичными. Это честный финал. Человек пересмотрел позицию.

А вот AI-скептики — нет. И тут начинается интересное.

Есть исследование из Йеля. Изучали, почему умные люди отвергают данные. Выяснилось: чем выше когнитивные способности, тем лучше человек рационализирует. Не понимает данные лучше — а изощрённее объясняет, почему данные не считаются.

Глупый человек просто не понимает данные. Умный — строит теорию, почему именно эти данные некачественные.

Механизм простой. Пока ты скептик "для себя" — стоимость разворота нулевая. Данные пришли, мнение обновилось. Но каждая колонка в Wired, каждый подписчик на Substack, каждое выступление на конференции поднимает ставку.

В какой-то момент ты уже не "человек, который сомневается в AI". Ты — "тот самый AI-скептик". Это твоя аудитория, твоя экспертиза, твой бренд.

И тогда данные перестают быть информацией. Они становятся угрозой. Не твоей картине мира — а твоей картине себя.

Скептицизм — это метод. Он обновляется при новых данных.

Отрицание — это идентичность. Оно обновляет данные под себя.

В 2023 у тебя не было данных, чтобы верить.

В 2026 у тебя нет данных, чтобы не верить.

Если ты всё ещё "не уверен" — задай себе один вопрос: какие данные изменят твоё мнение?

Если ответа нет — это уже не скептицизм.

t.me/digitalvc

https://max.ru/join/kqAHfhZ64kQlsahM7HIXNIDLTF2MLQ8J7ib-XCNAt9Y