big boy

big boy
Рейтинг
358
Регистрация
18.11.2006
Должность
webmaster
Сердитый дельфин #:
Чтоб хотя бы 1000 переходов в день было
Ну и да, если цель в этом, то сайт обречен.
Сердитый дельфин #:
Чтоб хотя бы 1000 переходов в день было

Даже если взять 3% CTR, в чём я сильно не уверен, то на Вашем сателлите должно быть не менее 30к суточного трафика.

Но скорее всего CTR будет меньше, а следовательно и трафика нужно будет в разы больше.

dakter #:

С ценами, как и у всех российских аналогов.

Нет. У этого сервиса, где знакомый работает, уже есть платные тарифы под CDN, WAF, Anti-DDOS и тд. Они делают именно "замену" клауду.

Что там в итоге будет я не знаю, в планы подробно меня не посвятили.

Сердитый дельфин #:
Вы конкретно что прохлопали в вашем случае? Что за ошибки полетели в WM?

Делал каталог игр в начале 2022. Всего было около 70 тысяч "товаров", у каждого из которых по 7 вложенных страниц, переведено всё было на 7 языков... то есть по самым скромным подсчетам больше 3 млн страниц ))) Отзывов было спаршено уже не помню сколько, но счет шёл на сотни тысяч.

  • Наплодил кучу второстепенных страниц для каждой "карточки". Типа отдельная страница для скриншотов, отдельная для похожих "товаров", отдельная страница для способов скачивания, отдельная для отзывов и так далее. Всего было около 7 таких страниц для каждого товара. Думал будет круто всё заточено под НЧ, подсмотрел такой подход у крутых конкурентов, но на практике оказалось, что многие из этих страниц были полу-пустыми. У конкурентов это висело и не мешало, но новому сайту могут не прощать ошибки взрослых сайтов.
  • Были проблемы с каноникалами, копипаста, генерированный текст (в то время еще не было ИИ).
  • Затем основные проблемы были с самим контентом, который был копипастой, но частично не проиндексированной ранее. Данные брались из различных API. Всё было оформлено в виде описаний и отзывов реальных пользователей.
  • Проблемы со скоростью загрузки. В среднем страницы больше 5 секунд грузились, так как система кеширования просто не могла поместить весь сайт в оперативку и многие страницы оттуда вылетали. Решил кастомным решением и увеличил скорость отдачи примерно до 1.5 - 2 сек.

Карта сайта состояла из почти 900 "кусков" по нескольку тысяч страниц в каждом.

Больше всех трафа давал Bing, около 60%. Потом они прислали письмо счастья, что сайт не соответствует их критериям качественного. Траф упал.

Всё исправил, переделал, техничку вылизал, генерёнку убрал, страницы объединил. 5 месяцев бинг спал, потом прислали, что с сайтом теперь всё ок. Траф вернулся буквально на пару дней и опять скатился в ноль.

В пике было проиндексировано всего около 300к страниц гуглом. Остальные ПС - в разы меньше.

На старте был офигенный рост. Первый раз в жизни видел трафик из Японии, Китая, стран африки. А потом случился гугловский Spam Brain.

В итоге гугл отправил в бан примерно на год. Всё это время траф шёл только с яши на русскоязычную версию.

Но основная проблема была в том, что за такой короткий срок никакой сайт не смог бы нагенерировать столько контента. И еще никакой добавочной ценности. Просто инфа ради инфы.

И весь этот монстр занимал около 400 гигов места на диске + жрал почти всю оперативку (64 гига) под кэш и стоил этот выделенный сервак около 8к рублей в месяц.


Делая подобные сайты надо себя спрашивать - а ради чего? Я делал ради эксперимента. Многому научился, прокачал навыки в программировании. Но главный вопрос - зачем кому-то этот сайт будет нужен? Если на нём нельзя получить то, что можно получить на других сайтах, то скорее всего это не нужный сайт. И дело не в уникальности текстов.

Знакомый работает в разработке одного из российских CDN сервисов. Про ситуацию с клаудом в курсе и на мой вопрос о том, что может стоит выкатить бесплатный тариф с минимумом необходимых функций ответил, что "активно над этим работаем".

Думаю, что не они одни.

Так что вопрос времени, скорее всего скоро появятся аналоги клауду. Думаю ближе к осени.

Ну короче, риск есть и большой и всё вылизать не получится. В любом случае будут ошибки незапланированные. Лучше выкатывать постепенно и на старте потерять немного времени, чем рискнуть и потерять вообще всё с огромной долей вероятности.
Товарищ вахтёр почему-то трёт нормальные комменты. Интересно.

Если собираетесь такое делать, то сайт должен быть вылизан до идеала, чего на практике практически невозможно сделать.

И что получается в итоге:

  1. Если с базовой техничкой всё хорошо - поисковики накидываются на сайт.
  2. Первые две недели - месяц идёт рост, как проиндексированных страниц, так и трафика. Возможно будет график аля "to the moon", наступает эйфория и чувство того, что поймал всех за яйца.
  3. Через месяц-два начинаются первые звоночки:
    Во-первых, находятся ошибки на страницах, которые начинают маячить в консолях вебмастера. 
    Во-вторых, оказывается, что поисковики - те ещё тормоза и оценка контента на сайте у них происходит параллельно с другими процессами, в том числе с раздачей трафика. И они с удивлением обнаруживают, что оценка Вашего контента оказалась не удовлетворительной по каким-то критериям. Всё же ручками запилить 250к страниц на инфосайте - нереальная задача. И скорее всего имеет место быть какая-то генерёнка. И скорее всего не самая качественная.
  4. Начинаешь чинить проблемы, переписывать контент, но тут ждёт второй сюрприз - оказывается, что поисковики очень медленно переиндексируют старые страницы. Первичная индексация идёт куда быстрей. Но по 99% страниц будет висеть самый первый индекс.
  5. Параллельно с этим поисковики понимают, что встретился им очередной ГС и отправляют сайт в топку, не желая тратить на него краулинговый бюджет. На сайт вешается невидимая чёрная метка и любые дальнейшие манипуляции ни к чему не приводят.
  6. Проходят недели, месяцы, годы... возможно когда-то какая-то страница выстреливает чуть-чуть, но через пару дней трафик опять падает.
  7. Единственный возможный выход - переезд на новый сайт, с которым будет всё не так гладко, как хотелось бы.


Резонный вопрос - что делать?

Выкатывать сайт постепенно.

  1. Сначала 100 страниц. Ждём месяц. Смотрим ошибки в консолях. Исправляем.
  2. Потом еще 100 страниц. Ждём. Смотрим динамику.
  3. В случае необходимости вносим правки в техничку, контент и тд.
  4. Выкатываем еще 100-200-300 страниц.
  5. Если динамика линейная - выкатываем новые страницы на постоянке, постепенно увеличивая количество добавленных страниц за раз. Особенно для информационки.
В этом случае новые страницы будут попадать сразу излеченными от старых болячек их предшественников и есть больший шанс на успех.
Ну и вообще любые непонятки стоит начинать со сравнения Вашего сайта с конкурентами, у которых всё хорошо. Походите по их сайтам, сравните с Вашим. Обращайте внимание даже на мелочи. Думаю уже на этом этапе многое станет понятно.

Радуйтесь, что вообще ранжирует. Пути поисковых систем непостижимы )))

А если серьезно, то:

  1. Просканируйте сайт программой SiteAnalyzer, там есть инструмент проверки уникальности контента. 99%, что карточки товаров похожи друг на друга, как две капли воды из-за сквозных блоков. В следствие чего, яша может их выкидывать, чтобы не тратить драгоценный краулинговый бюджет на страницы низкого качества по его мнению. Либо можно целенаправленно отдельно скачать эту тулзу, если остальные отчеты не интересны - https://site-analyzer.ru/soft/batch-unique-checker/
  2. Соберите аналогичные карточки конкурентов. Загоните всех в инструмент анализа текста - https://miratext.ru/seo_analiz_text - скорее всего Ваши карточки будут менее релевантны (будут перекосы по словам и фразам).
  3. Шаг 3 можно повторить для страниц каталога, а так же сравнить карточки конкурентов с Вашей страницей каталога (перекрёстно).
В итоге ставлю на то, что карточки товаров оформлены слабо, в то время, когда каталоги выезжают за счет большего количества текста, в котором больше хвост из смежных запросов и LSI фраз.
Всего: 2841