Skip Navigation
Нейрократия
Telegram
Нейрократия
583 подписчиков 2 постов Рейтинг 0

Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Посты
neurocry
Наука и Технологии 9 март
Telegram
Я делаю personal-first ассистента


Я делаю personal-first ассистента. Вот зачем

AI-агентов, которые умеют что-то делать, уже хватает. Открыть браузер, прокликать сайт, отправить письмо, сходить в API, запустить workflow — это больше не выглядит как дифференциатор.

Интереснее другое: что вообще делает ассистента персональным.

Я строю такой ассистент — Volna. Он живёт в Telegram, работает 24/7 на сервере и задуман не как очередной task runner, а как постоянный слой между мной и повседневным потоком сообщений, напоминаний, спама, заметок, health-данных и прочего.

Ключевой вопрос для personal AI сейчас, как мне кажется, уже не в том, умеет ли система действовать. А в том, что она помнит, как выбирает момент и насколько хорошо встроена в реальные каналы жизни.


Вкус — это память

У большинства AI-ассистентов память до сих пор устроена примитивно: накопили факты, заэмбедили текст, потом по запросу достали что-то похожее.

На короткой дистанции это работает. На длинной — начинает шуметь.
Поэтому у Volna память разделена на три слоя.

Первый — компактный постоянный профиль: устойчивые предпочтения, отношения, повторяющиеся интересы, особенности поведения.
Второй — недавний эпизодический слой: rolling log последних дней, который даёт непрерывность и убирает эффект, будто каждый разговор начинается с нуля.
Третий — архивный слой для точных ссылок, дат, старых деталей и разовых фактов. Он не подмешивается в каждый запуск, а достаётся только по необходимости.

То есть память здесь — курируемая система с разными режимами доступа.


Вкус — это тайминг

Хороший ассистент должен уметь не только писать, но и молчать.

В Volna это отдельная часть логики. Если плановая проверка не находит ничего действительно полезного, система возвращает no_message. А еще некоторые сценарии полезны, но не всегда уместны: например, регулярные вопросы для профилирования или напоминания. Поэтому их можно не просто выключить, а отложить — Volna сама поймет, когда можно продолжить.


Вкус — это среда выполнения

Volna живёт в Telegram не только как бот, но и имеет доступ к моему личному аккаунту. Это принципиально меняет класс задач.

Она может работать внутри реального потока (ну волна же): фильтровать входящие, проверять на спам, искать по переписке, анализировать медиа, пересылать сообщения и в некоторых случаях отвечать от моего имени.

Например, если во входящих очевидный crypto-спам, Volna может ответить что-то вроде "это ассистент Влада, я передам сообщение".

Ещё у Volna есть свой Twitter.


Вкус — это не количество интеграций, а их связность

Отдельная часть Volna — health tracking.

Она синхронизирует данные Fitbit: сон, пульс, HRV, SpO2, температуру кожи,
readiness, активность и другие метрики. Параллельно логирует еду по фото и отслеживает лекарства. Смысл в том, чтобы связать источники полезный контекст: проседает ли восстановление, сочетается ли недосып с ухудшением питания, и стоит ли вообще про это сообщать сейчас.


Вкус — это явное поведение

Ещё одно решение, которым я доволен, — как организованы skills и tools, которые подгружаются по требованию через суб-агентов. Система точно знает, когда искать в памяти, как использовать Spotify, Todoist, Workflowy, Typefully и прочие сервисы. Это делает поведение максимально редактируемым и детерминированным.

А еще Volna имеет доступ к собственному коду, периодически себя дебажит и вносит улучшения. Самостоятельно.


Вкус — это наблюдаемость

Вокруг Volna я собрал dashboard: логи, историю сессий, вызовы инструментов, состояние расписаний, deferrals, здоровье процессов, токен-статистику и метрики памяти.

Если ассистент действует от моего имени, он не должен быть чёрным ящиком.

---
Мне кажется, главная проблема personal AI сейчас не в автономности.

Она во вкусе.
В том, что помнить.
Когда говорить.
Когда молчать.
Что считать важным.

И как собирать из памяти, тайминга, каналов и инструментов что-то действительно персональное, а не просто ещё один productivity-слой с чатиком сверху.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
neurocry
Наука и Технологии 8 март
Telegram
ИИ победил


ИИ победил

Нейросети уже управляют вашим миром. Но, возможно, не так, как вы думаете.

Когда говорят об опасности ИИ, обычно рисуют две картинки. Первая — скучная: нейросеть ускорит работу, заменит часть профессий, сократит издержки, а дальше как-нибудь разберёмся. Вторая — кинематографическая: сверхразум, манипуляции, катастрофа, кнопка запуска конца света.

Обе картинки удобны. Обе помещают проблему куда-то вперёд. Но неприятная новость в том, что главная победа ИИ уже здесь.

Не в виде робота с красными глазами. Не в виде безработицы по щелчку. Она выглядит гораздо прозаичнее: как аккуратно написанный абзац текста.


Текст — самый коварный формат

С картинкой попроще. Шесть пальцев, медведь варит борщ — мозг получает сигнал: передо мной фейк. С видео тоже учимся быть осторожнее.

А текст — идеальный контрабандист.

Если он складный, уверенный и написан без явной дури, большинство людей не пойдёт перепроверять, что ускорение свободного падения не равно 11, что "полезно съедать по камню в день" — не медицинская рекомендация, и что список источников вообще существует. Машина транслирует чушь с интонацией справочника.


Новый авторитет

У нас в голове сидит старый баг: компьютер прав, потому что он компьютер.

Есть формула в Excel — значит, где-то есть строгая логика. Если ответ выглядит гладко — значит, он на что-то опирается. Если ИИ сказал уверенно — значит, "что-то знает".

Но LLM — это вероятностная машина по сборке правдоподобных фраз. Проблема в том, что люди часто читают это как новый тип авторитета.

И исследования об этом тоже говорят. В работе Microsoft Research с 319 "работниками сферы знаний" более высокая уверенность в GenAI была связана с меньшим объёмом критического мышления, а сама работа с ИИ часто смещалась от самостоятельного анализа к верификации готового ответа.

В ряде экспериментов люди вообще воспринимали AI-источник как менее предвзятый, более информативный и менее заинтересованный в убеждении, чем человек. То есть сама "нечеловечность" системы у многих повышает кредит доверия.


Мы начинаем думать внутри чужой рамки

Что дальше — а дальше люди ретранслируют ответы моделей как собственные выводы. Не потому что они глупые. Потому что так дешевле по усилию.

Так возникает очень странная форма зависимости: мы вроде бы всё ещё говорим сами, но всё чаще — словами, логикой и рамками, которые заранее предложила машина.

И здесь даже маркировка "это написал ИИ" помогает слабо. В эксперименте на 1601 участнике такие метки почти не меняли ни убедительность сообщения, ни оценку его точности, ни готовность делиться им дальше. Иными словами, сам факт искусственного происхождения текста не делает людей заметно осторожнее.


Самоусиливающаяся дурнота

Дальше запускается самый опасный механизм — петля обратной связи.

Модель ошибается
→ Человек копирует ошибку в пост, заметку, комментарий, SEO-текст, реферат, презентацию
→ Эта масса текста оседает в интернете
→ Следующая модель учится уже на мире, где выдумка статистически выглядит как нормальная часть реальности.

В работе Shumailov такой процесс описывается как model collapse: при рекурсивном обучении на сгенерированных данных модели начинают терять хвосты распределения и всё хуже отражают исходную реальность, при этом сохраняя видимость нормальной работы. То есть деградация может быть тихой и почти незаметной.

ИИ не обязан стать разумнее человека, чтобы начать формировать реальность. Ему достаточно стать массовым, удобным и достаточно убедительным.

Не конец света. Конец света хотя бы заметен. А здесь всё происходит в комфортном режиме. Вы не лежите под руинами цивилизации. Вы просто живёте в мире, где истина всё чаще определяется не проверкой, а убедительностью формулировки. И где глубина понимания постепенно подменяется доступом к более дорогой, более быстрой, более “умной” модели.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ

Управлять можно с клавиатуры

Работает в лентах: голосование, переход между постами и разворот текста.

W
S
A
D
F
Свежие комментарии