Эта история у меня началась после того, как X внезапно начал переводить все на все языки. Я в какой то момент поймал себя на мысли: а сколько вообще стоит такая штука, если делать ее не кнопкой “перевести”, а на уровне всей платформы?
Не отдельные посты, не пользователь по нажатию, а именно весь поток. Появился пост или комментарий - сразу прогнали через модель, положили переводы в базу, проиндексировали, отдали пользователям и поисковикам.
На бумаге это выглядит очень мощно. Один и тот же контент сразу становится глобальным. Любой тред можно читать на своем языке, поисковики получают страницы под разные страны, вход в продукт становится шире. Но дальше возникает простой инженерный вопрос: сколько это стоит на самом деле?
Первая прикидка: берем H100 и большую модель
Сначала я пошел по самому очевидному пути. Берем мощную универсальную модель уровня DeepSeek и ставим ее на H100. Просто потому что это сейчас стандартный подход, когда хочется “максимально качественно”. Дальше прикинул поток постов на Reddit. В день появляется около 10 млн постов и комментариев. Средний кусок текста короткий, пусть около 75 токенов. В итоге выходит примерно 800 млн входных токенов в сутки. Если переводить на 10 языков, это превращается примерно в 8 млрд выходных токенов.
Когда начинаешь накладывать это на реальную производительность большой LLM, получается неприятный результат. Чтобы переварить такой поток, нужно около 1100 видеокарт уровня H100. Это уже не “сервер с GPU”, это полноценный дата центр.
По деньгам только видеокарты тянут примерно на 40 млн долларов, а с учетом серверов, сети, охлаждения и всего остального это становится еще больше. В этот момент становится понятно, что я вообще не туда пошел в размышлениях.
Вывод очевиден - меняем модель или видеокарты.
Если задача только перевод, зачем нам модель, которая умеет рассуждать, писать тексты и симулировать диалог? Погуглил и нашел, что есть специализированные модели ИИ для перевода. Например, NLLB. Она обучена именно на переводе, работает быстрее и дешевле.
И тут экономика резко меняется. Такая модель спокойно запускается не на H100, а на гораздо более обычных картах:
RTX 4090, L40S, A10, A100.
Оптимально под продакшен выглядит L40S. Это нормальная серверная карта, не космос по цене и при этом дает хороший throughput. После пересчета получается, что вместо тысячи H100 нам нужен кластер примерно из 250 L40S. Это все еще большой масштаб. Но это уже не история уровня OpenAI. Это просто дорогая инфраструктура, которую можно посчитать и собрать.
Сколько это стоит?
Берем те же 250 L40S. Одна карта стоит примерно 7 тысяч долларов. Только GPU дают около 1.75 млн долларов затрат.
Но на практике карта не существует сама по себе. Нужны серверы, CPU, память, диски, сеть, стойки и питание. Обычно это примерно столько же сверху, но чуть чтуь дешевле. В итоге получаем примерно 2.5 млн долларов на весь кластер. Это грубая прикидка, но порядок понятен.
Теперь электричество. Одна L40S ест до 350 Вт. В сумме кластер с учетом всего остального выходит примерно на 180 кВт. За месяц это примерно 130 тысяч кВт⋅ч. Если считать по средней цене дата центра, получается около 25 тысяч евро в месяц. И здесь интересный момент: электричество не выглядит основной проблемой. Основные деньги уходят именно в закупку железа.
А нужно ли 10 языков?
На этом этапе мне стало очевидно, что главный драйвер стоимости - это количество языков. Каждый новый язык линейно увеличивает нагрузку. Но трафик при этом растет не линейно. Первые языки по количеству носителей дают огромный эффект, дальше идет убывающая отдача, переводить, например, на финский, где носителей буквально несколько миллионов, а уровень проникновения английского - 97% становится абсолютно не выгодно. . Поэтому я решил не брать 10 языков, а подумать, какие реально дают максимальный охват. Выбор был по количеству носителей, топ выглядит так: Английский, Испанский, Португальский, Французский, Русский, Хинди и Индонезийский. Еще везде есть Немецкий, но я посмотрел, что охват не самый большой (120 млн), при этом уровень проникновения Английского в Германии очень высокий, а значит это можно точно не ставить в приоритет. Что это дает по охвату?
Если грубо посчитать всех говорящих на этих языках, включая тех, кто использует их как второй язык, получается довольно внушительная цифра. Английский около 1.4 млрд, хинди около 600 млн (да, не все в индии говорят на Хинди), испанский около 560 млн, французский около 300 млн, русский около 250 млн, португальский около 260 млн, индонезийский около 200 млн. Просто складывать эти цифры нельзя, потому что есть пересечения. Но если привести это к уникальному охвату, получается примерно 3.5 млрд человек. Это около 65% всего интернета.
Пересчет под 7 языков
Когда расчет перешел с 10 языков на 7, нагрузка упала примерно на треть. Соответственно, кластер тоже уменьшается. Вместо 250 карт получаем примерно 180 L40S.
По деньгам:
- GPU около 1.25 млн долларов
- полный кластер около 2 млн долларов
По электричеству:
- примерно 90 тысяч кВт⋅ч в месяц
- около 18 тысяч евро в месяц
То есть теряется небольшая часть потенциального охвата, но сильно экономим на инфраструктуре.
Выгодно ли это Reddit
В сухом остатке экономика выглядит довольно простой. Запуск такой системы обойдется примерно в 2 млн долларов, плюс около 0.5 млн в год на поддержку и электричество. Для компании масштаба Reddit это не те деньги, которые нельзя потратить, вопрос только в отдаче.
А отдача здесь в первую очередь в трафике. Перевод открывает доступ к поиску на локальных языках и снимает барьер входа для огромного числа пользователей. Даже если это даст всего несколько процентов роста, это уже превращается в десятки миллионов дополнительных просмотров и, как следствие, миллионы долларов рекламной выручки в год. При нормальной реализации это выглядит как инвестиция с кратным возвратом.
Поэтому я думаю, что мы увидим такой шаг от компании в очень близком будущем.

