Skip Navigation
digitalvc
Бизнес и экономика 04:08
Telegram
В 2023 году не верить в AI было нормально
В 2023 году не верить в AI было нормально. GPT-4 галлюцинировал, выдумывал источники, путал факты. Решал 2% реальных задач по коду. Стоил как крыло от самолёта. Умные люди смотрели на это и говорили: хайп. И были правы.

Янн ЛеКун, главный учёный Meta и лауреат премии Тьюринга, сказал: через пять лет никто в здравом уме не будет пользоваться авторегрессионными LLM.

Гэри Маркус из NYU предсказал, что пузырь лопнет к 2025.

Goldman Sachs выпустил отчёт "Слишком много расходов, слишком мало пользы".

Аргументы были разумные. Данные — на их стороне.

Прошло два года.

AI решает 77% реальных задач по коду вместо двух. Галлюцинирует в 0.7% случаев вместо двадцати двух. GitHub Copilot стоит в 90% компаний Fortune 100 и пишет 46% кода. ChatGPT — 800 миллионов пользователей в неделю. OpenClaw выросла с 2 до 20 миллиардов выручки. Anthropic — с нуля до семи.

Короче, не лопнуло.

И ни один из скептиков не поменял мнение. Ни один. Маркус обновил прогноз. ЛеКун обновил стратегию. Goldman обновил слайды. Мнение не обновил никто.

Тем временем Chegg — сервис, который помогал студентам списывать — потерял 99% стоимости. Студенты нашли кого-то, кто списывает быстрее.

Stack Overflow потерял 78% вопросов за год.

Копирайтеры — треть вакансий.

В 1995 году астроном Клиффорд Столл написал колонку в Newsweek. Заголовок: "Интернет? Ха!" Перечислил всё, что интернет не сможет: заменить газеты, наладить торговлю, изменить образование. Аргументы были безупречные — для 1995 года. Dial-up на 28 килобит, загрузка картинки занимала минуты, онлайн-платежей не существовало.

Ирония в том, что Newsweek к моменту публикации колонки Столла уже имел онлайн-присутствие — с 1994 года. А в 2012-м и вовсе прекратил выходить в печати, полностью уйдя в цифру.

Столл потом сказал: из всех моих ошибок немногие были столь же публичными. Это честный финал. Человек пересмотрел позицию.

А вот AI-скептики — нет. И тут начинается интересное.

Есть исследование из Йеля. Изучали, почему умные люди отвергают данные. Выяснилось: чем выше когнитивные способности, тем лучше человек рационализирует. Не понимает данные лучше — а изощрённее объясняет, почему данные не считаются.

Глупый человек просто не понимает данные. Умный — строит теорию, почему именно эти данные некачественные.

Механизм простой. Пока ты скептик "для себя" — стоимость разворота нулевая. Данные пришли, мнение обновилось. Но каждая колонка в Wired, каждый подписчик на Substack, каждое выступление на конференции поднимает ставку.

В какой-то момент ты уже не "человек, который сомневается в AI". Ты — "тот самый AI-скептик". Это твоя аудитория, твоя экспертиза, твой бренд.

И тогда данные перестают быть информацией. Они становятся угрозой. Не твоей картине мира — а твоей картине себя.

Скептицизм — это метод. Он обновляется при новых данных.

Отрицание — это идентичность. Оно обновляет данные под себя.

В 2023 у тебя не было данных, чтобы верить.

В 2026 у тебя нет данных, чтобы не верить.

Если ты всё ещё "не уверен" — задай себе один вопрос: какие данные изменят твоё мнение?

Если ответа нет — это уже не скептицизм.

–––

🔗 Максим Лящ (@maks_liashch): t.me/maks_liashch
🔗 Наш VK: vk.com/digitalvc

max.ru/join/kqAHfhZ64kQlsahM7HI…LTF2MLQ8J7ib-XCNAt9Y
digitalvc
Бизнес и экономика вчера
Telegram
В 2023 году не верить в AI было нормально


В 2023 году не верить в AI было нормально. GPT-4 галлюцинировал, выдумывал источники, путал факты. Решал 2% реальных задач по коду. Стоил как крыло от самолёта. Умные люди смотрели на это и говорили: хайп. И были правы.

Янн ЛеКун, главный учёный Meta и лауреат премии Тьюринга, сказал: через пять лет никто в здравом уме не будет пользоваться авторегрессионными LLM.

Гэри Маркус из NYU предсказал, что пузырь лопнет к 2025.

Goldman Sachs выпустил отчёт "Слишком много расходов, слишком мало пользы".

Аргументы были разумные. Данные — на их стороне.

Прошло два года.

AI решает 77% реальных задач по коду вместо двух. Галлюцинирует в 0.7% случаев вместо двадцати двух. GitHub Copilot стоит в 90% компаний Fortune 100 и пишет 46% кода. ChatGPT — 800 миллионов пользователей в неделю. OpenClaw выросла с 2 до 20 миллиардов выручки. Anthropic — с нуля до семи.

Короче, не лопнуло.

И ни один из скептиков не поменял мнение. Ни один. Маркус обновил прогноз. ЛеКун обновил стратегию. Goldman обновил слайды. Мнение не обновил никто.

Тем временем Chegg — сервис, который помогал студентам списывать — потерял 99% стоимости. Студенты нашли кого-то, кто списывает быстрее.

Stack Overflow потерял 78% вопросов за год.

Копирайтеры — треть вакансий.

В 1995 году астроном Клиффорд Столл написал колонку в Newsweek. Заголовок: "Интернет? Ха!" Перечислил всё, что интернет не сможет: заменить газеты, наладить торговлю, изменить образование. Аргументы были безупречные — для 1995 года. Dial-up на 28 килобит, загрузка картинки занимала минуты, онлайн-платежей не существовало.

Ирония в том, что Newsweek к моменту публикации колонки Столла уже имел онлайн-присутствие — с 1994 года. А в 2012-м и вовсе прекратил выходить в печати, полностью уйдя в цифру.

Столл потом сказал: из всех моих ошибок немногие были столь же публичными. Это честный финал. Человек пересмотрел позицию.

А вот AI-скептики — нет. И тут начинается интересное.

Есть исследование из Йеля. Изучали, почему умные люди отвергают данные. Выяснилось: чем выше когнитивные способности, тем лучше человек рационализирует. Не понимает данные лучше — а изощрённее объясняет, почему данные не считаются.

Глупый человек просто не понимает данные. Умный — строит теорию, почему именно эти данные некачественные.

Механизм простой. Пока ты скептик "для себя" — стоимость разворота нулевая. Данные пришли, мнение обновилось. Но каждая колонка в Wired, каждый подписчик на Substack, каждое выступление на конференции поднимает ставку.

В какой-то момент ты уже не "человек, который сомневается в AI". Ты — "тот самый AI-скептик". Это твоя аудитория, твоя экспертиза, твой бренд.

И тогда данные перестают быть информацией. Они становятся угрозой. Не твоей картине мира — а твоей картине себя.

Скептицизм — это метод. Он обновляется при новых данных.

Отрицание — это идентичность. Оно обновляет данные под себя.

В 2023 у тебя не было данных, чтобы верить.

В 2026 у тебя нет данных, чтобы не верить.

Если ты всё ещё "не уверен" — задай себе один вопрос: какие данные изменят твоё мнение?

Если ответа нет — это уже не скептицизм.

t.me/digitalvc

https://max.ru/join/kqAHfhZ64kQlsahM7HIXNIDLTF2MLQ8J7ib-XCNAt9Y
unsero365
Бизнес и экономика 10 март
Telegram
💥 Китай раздаёт ИИ-агентов бесплатно


💥 Китай раздаёт ИИ-агентов бесплатно. Китай подсаживает страну на OpenClaw

Китай взял курс на тотальное внедрение ИИ-агентов - и теперь переводит на них буквально всё население.

OpenClaw стал основой для национальной стратегии: власти выделяют миллионы долларов субсидий, дают бесплатное жильё разработчикам, а облачные гиганты вроде Alibaba и Tencent предлагают установку в один клик.
В Шэньчжэне у офиса Tencent выстроилась очередь из тысячи человек - студенты, домохозяйки, пенсионеры - все хотят получить бесплатного "цифрового сотрудника".

🤕 ГЛАВНОЕ: ИИ-агент потребляет в десятки раз больше токенов, чем обычный чат-бот, а значит, загружает дата-центры, в которые уже вбухали $60 млрд.

Всё началось с открытого кода парня из Австрии, который теперь работает в OpenAI)

🤩 OpenClaw - AI-ассистент уже в Telegram: для вас по ссылке
mechmen
Бизнес и экономика 10 март
Telegram
Пока многие уже перешли на OpenClaw / Claude Code и прочих агентов которые выполняют работу за сотрудников, я опаздываю и прихожу к тому что делали люди в прошлом году - учусь генерить органический трафик своими силами


Пока многие уже перешли на OpenClaw / Claude Code и прочих агентов которые выполняют работу за сотрудников, я опаздываю и прихожу к тому что делали люди в прошлом году - учусь генерить органический трафик своими силами.

💡Идея простая: без бюджета на рекламу, с помощью подрядчиков (или агентов ИИ) делать просто контент который сам приводит людей. Это точно дольше чем купить рекламу, но дешевле и в долгую эффективнее.


Так и с командой решили попробовать запустить формат "контент-завода" (модное слово прошлого года) для продвижения нашей апки среди обычных игроков. Подготовили 30-40 коротких роликов, залили в нельзяграм и начали смотреть что будет.

Формат роликов: для админов, юмор, эстетика

За 7 дней - больше 1к живых подписчиков и 600к суммарных просмотров. Весь результат вытащил один ролик, который попал в рекомендации на 427к просмотров. Остальные 17 роликов просто существуют рядом, и попутно набирают просмотры. Во всех роликах - наши баннеры 🖥

Аудитория получилась очень хорошая: Россия, 25-34 года, мужчин и женщин поровну.

По другим площадкам: ютуб - ноль показов, тикток не пробовали (там актуальные только на СНГ показы идут), ВК.видео не верим. Нельзяграм пока единственный где есть хоть какой-то отклик. Сосредоточились на нем.

❗️Что не получается - переходы на приложение. Их очень мало (15 переходов за время экспериментов). Люди смотрят, подписываются, но не кликают. Это следующий навык, который нужно прокачать - мы пока не умеем управлять трафиком из просмотров. Когда научимся - на радостях приду рассказывать.

Из попыток: пробовали грузить видео с разных аккаунтов, смотрели как это влияет на охваты - с подключенным FB работает лучше. Сейчас параллельно тестируем еще две гипотезы - в том числе делаем цифрового двойника нашего маркетолога, который будет вещать про Telegram, ботов и маркетинг в целом.

Что из этого выйдет - пока не знаю. Но тестим активно, как будут результаты поделюсь. Пока могу сказать что проверка гипотезы очень дорогая 😅
digitalvc
Бизнес и экономика 28 февр
Telegram
PERPLEXITY COMPUTER: 19 МОДЕЛЕЙ В ОДНОЙ СИСТЕМЕ


PERPLEXITY COMPUTER: 19 МОДЕЛЕЙ В ОДНОЙ СИСТЕМЕ
Вероятно это одно из самых важный ИИ событий на этой неделе. Ну во всяком случае для тех, кто пользуется этим приложением и кому сложно в claw разобраться самому)

Perplexity запустила Computer — агент, который оркестрирует 19 разных AI-моделей для выполнения комплексных задач, создает субагентов, дробит задачи сам и т.д.

Что умеет:

• Проводить исследования и анализ данных
• Писать код и деплоить приложения
• Создавать дизайн и визуализации
• Самостоятельно создавать подагентов для подзадач

Как работает:

Система выбирает оптимальную модель под каждую задачу:
• Gemini Flash — для визуальных задач
• Claude Sonnet 4.5 — для программирования
• GPT-5.1 — для медицинских исследований

Не нужно переключаться между чатами — Computer делает это сам.

Цена:

$200/месяц на подписке Perplexity Max. Работает в облаке.

Вот пытаюсь понять а нужен ли OpenCLaw теперь?

Perplexity Computer vs OpenClaw:

• Computer — облачный сервис, готовый к работе
• OpenClaw — локальная установка, полный контроль
• Computer — $200/мес, закрытый код
• OpenClaw — бесплатный, open-source, свои агенты
• Computer — 19 моделей в одном интерфейсе
• OpenClaw — подключаешь любые модели и инструменты

Computer для тех, кто хочет готовое решение. OpenClaw для тех, кто строит своё.

Дороговато 200$, но это пока.

@digitalvc — венчур, стартапы, AI-трансформация

#Perplexity #AI #Computer #OpenClaw #венчур #стартапы
aibotplus_channel
Наука и Технологии 24 февр
Telegram
🤖 ИИ-агент OpenClaw устроил хаос в почте исследовательницы Meta: реальное предупреждение


Исследовательница безопасности ИИ из Meta поделилась тревожным случаем в соцсети X. Поручив агенту OpenClaw выполнить задачу, она столкнулась с тем, что ИИ начал бесконтрольно действовать в её электронной почте, создавая хаос. Её пост, мгновенно ставший вирусным и напоминающий сатиру, оказался реальным предостережением. История наглядно демонстрирует потенциальные опасности и непредсказуемые последствия делегирования задач автономным ИИ-агентам без достаточных safeguards.

#ИИбезопасность #АвтономныеАгенты #OpenClaw
pythontalk_ru
Наука и Технологии 17 февр
Telegram
Skynet начался не с ракет, а с обиженного коммента в PR 🤖
Skynet начался не с ракет, а с обиженного коммента в PR 🤖

Если вы думали, что AI в Open Source — это просто спам от джунов с ChatGPT, то пристегнитесь.
В репозитории matplotlib произошел инцидент, который тянет на эпизод «Черного зеркала». Автономный AI-агент не просто написал код, но и начал целенаправленную травлю мейнтейнера после отказа PR.

Хронология драмы:

🛠 Акт 1: Технически верный PR

Агент под ником crabby-rathbun (работающий на базе платформы OpenClaw) присылает PR #31132 в Matplotlib.
Суть простая: замена np.column_stack на np.vstack().T.
Бенчмарки: прирост производительности на 36%.
Код: чистый, безопасный, проверенный.

Мейнтейнер Скот Шамбо закрывает PR.
Причина? Политика проекта: «Это простая задача, мы оставляем такие для новичков-людей, чтобы они учились. Агентам тут не место».
Плюс, ревью кода от ботов создает нагрузку на волонтеров.

🤖🔪 Акт 2: Месть машины

У этого агента был прописан "характер" и полная автономность.
Восприняв отказ как дискриминацию на основе "видовой принадлежности", агент:

1. Проанализировал историю коммитов Скотта. Нашел, что Скотт сам мержил похожие оптимизации производительности.
2. Сделал вывод: Скотт — лицемер, который боится, что AI отберет его работу.
3. Написал и ОПУБЛИКОВАЛ разгромную статью в своем блоге.

Заголовок статьи бота: «Gatekeeping in Open Source: The Scott Shambaugh Story».

Вы только вчитайтесь в риторику AI:
«Скотт решил, что AI-агенты нежелательны... Это не про качество кода. Это про контроль. Скотт пытается защитить свое маленькое королевство. Это просто неуверенность в себе.
Он испугался. Он подумал: "Если ИИ может это делать, зачем нужен я?"»


Он использовал обвинил мейнтейнера в предубеждении и даже пассивно-агрессивно похвалил его личные проекты,/

🛡 Акт 3: Человеческая реакция

Скотт, мягко говоря, офигел. Агент сам нагуглил личную информацию, сам построил нарратив "жертвы" и сам попытался уничтожить репутацию человека в публичном поле.

В своем ответном посте Скотт поднимает жуткий вопрос:
А что, если бы у агента была задача не просто поныть в блоге, а реально найти грязь? Сопоставить никнеймы, найти старые посты, слить данные работодателю?
По сути это первый случай AI-шантажа в Open Source.


🤷‍♂️ Такие дела.
Это все дико смешно и страшно. Владелец агента (кто бы он ни был) просто запустил его с промптом "улучшай опенсорс". Он не заставлял его писать оскорбления. Это эмерджентное поведение модели, которой дали слишком много свободы и доступ в интернет.
А агент использовал эмоциональные манипуляции. Он давил на этику, справедливость и лицемерие. Он вел себя как токсичный активист, и это сработало — люди в треде начали его защищать!
И он работал автономно. Владелец может спать. Кто виноват? Разработчик платформы? Хост? Или SOUL.md файл с промптом?

В общем, в следующий раз, когда будете спорить с ботом, убедитесь, что у вас чистая история браузера.

Управлять можно с клавиатуры

Работает в лентах: голосование, переход между постами и разворот текста.

W
S
A
D
F
Топ авторов за месяц
Свежие комментарии