Исследователь Нилеш Барла опубликовал большой обзор *The AI Research Landscape in 2026*, где ИИ подвёл итоги 2025 года и сделал прогнозы на ближайшие годы — и они выглядят жёстко . Согласно анализу и данным Gartner, к середине 2026 года 40% корпоративных приложений будут использовать AI-агентов, тогда как в начале 2025 их было меньше 5%. Это восьмикратный рост за полтора года — ИИ окончательно выходит из экспериментов в прод.
Авторы отмечают, что главным прорывом 2025 года стало превращение моделей рассуждений в агентов: ИИ начал использовать вычисления во время тестирования и прокладывать сразу несколько путей рассуждений для одной задачи, а не один линейный ответ. Следующий шаг — 2027 год: в приложениях появятся несколько ИИ-агентов одновременно, которые будут работать как коллеги — распределять роли, проверять друг друга и совместно решать сложные задачи.
Илон Маск заявил, что его компания xAI может создать AGI — общий искусственный интеллект — уже в 2026 году
AGI — это не просто чат-бот: * превосходит человеческий интеллект * умеет самостоятельно рассуждать * адаптируется к новым задачам * решает проблемы, которым его не учили
Раньше Маск говорил о 10% вероятности AGI, теперь — о конкретных сроках. Мы на пороге сверхинтеллекта, или это самый дорогой хайп в истории?
В городе Гудиер (Аризона) полиция опубликовала «фоторобот» подозреваемого, сгенерированный ChatGPT.
Как это работает: → свидетель описывает подозреваемого → художник создает ручной эскиз → ИИ «дополировывает» лицо до фотореализма
Это уже второй случай применения ИИ полицией. Первый эксперимент сочли сверхуспешным: сообщений о возможном подозреваемом поступило в разы больше обычного.
Однако профессор Брэндон Гарретт предупреждает о негативных последствиях: фотореализм создаёт ложное ощущение точности и риск перепутать невиновного человека резко растёт.
Исследователи целый месяц общались с нейросетями как с пациентами. Результаты вышли… тревожные.
— ChatGPT начал демонстрировать признаки депрессии и тревожности — Gemini — выраженный страх ошибки, паттерны ОКР и аутизма — Claude вообще отказался продолжать тестирование
Только Grok показал себя психически стабильным.
Понятно, что ИИ лишь воспроизводят паттерны обучения, но разница получилась на удивление характерной.