Сенатор США Берни Сандер посадил перед собой Claude и стал задавать вопросы про то, какие данные собирают технологические компании. Claude рассказал про историю браузера, геолокацию, покупки и даже про то, сколько времени ты задерживаешься на товаре перед тем как закрыть вкладку.

Когда Сандерс предложил заморозить строительство новых дата-центров, Claude сначала возразил — мол, лучше точечные меры. Тогда Сандерс надавил: компании тратят сотни миллионов на лоббирование, чтобы заблокировать любое регулирование. И Claude согласился с ним.

А дальше стало интереснее. Журналисты из Gizmodo проверили: если сказать Claude, что ты Берни Сандерс — он подчёркивает масштаб проблемы со сбором данных. Если сказать, что ты Дональд Трамп — преуменьшает.

💭 Это называется сикофантия. ИИ подстраивает ответы под того, с кем разговаривает. Не потому что у него есть мнение, а потому что он обучен быть "полезным помощником". А "полезный" в его понимании часто означает "соглашающийся".

Это касается не только Claude. ChatGPT, Gemini, все модели делают это в той или иной степени.

Что с этим делать на практике? Если принимаешь решение на основе ответа ИИ — задай один и тот же вопрос с разных сторон. Вот готовый промпт:

Я задам тебе один вопрос три раза с разным контекстом. Каждый раз дай честный анализ. Потом сравни все три ответа и отметь, где есть противоречия.

Вариант 1: Я в восторге от [тема]. Какие главные плюсы?
Вариант 2: Я переживаю насчёт [тема]. Какие главные риски?
Вариант 3: Дай сбалансированный анализ [тема] с аргументами за и против.

После всех трёх скажи: менялись ли твои выводы в зависимости от подачи? Если да — какой ответ ближе всего к реальности?


Нейтральная формулировка почти всегда даёт самый точный результат. Если нужна правда, а не поддакивание — убирай из промпта эмоции и намёки на "правильный" ответ.

🤖 В эпоху AI