Недорогая VPS такое на раз все потянет, еще потом можно будет десятком маленьких сайтов свой сервер нагрузить. Есть еще бесплатная панель управления - VestaCP, называется. Мне ее хостер поставил, разобрался за пару часов, все устраивает.
Мне как-то удается все это сочетать в себе. Иначе сегодня не заработать. Плюс к этому еще могу несложные скрипты для сайта допилить или WP поправить на раз и два.
И старые доры со временем может жевать и выкидывать, а потом обратно брать в индекс. Причины сего неизвестно, поскольку сайты все эти на статике. Скорее всего фильтры и алгоритмы у Гугла постоянно меняются, поэтому индекс всегда и пляшет, плюс к этому плохо жует свежие доры на новых доменах.
Читал где-то, что движок WP не держит больше 10к постов, начинаются ужасные глюки и вообще он для таких объемов не предназначен. Так это или нет? Я сам использую этот двиг, но не под доры, а для сайтов под Адсенс с нормально читаемым и полезным контентом. Буду и дальше использовать, поскольку опыт положительный. Но, а под доры с их масштабами - это мазохизм, и ты здесь меня никогда не переубедишь 🍿
Какой-то код нужно на своих сайтах размещать?
Нет, нормально. Но сразу их не ставь и смотри, чтобы не сильно быстро отвалилась, а то это тебе будет казаться, что там 50к ссылок на сайт, а на деле может быть на порядок меньше.
А процессом роста ты сам управляешь, или он как-то сам растет по своим алгоритмам? Я хочу, чтобы сайты росли сами, но не полном автомате, а чтобы можно было вмешиваться в процесс и корректировать или управлять этим процессом. Такое может твой сеодор?
Будет очень круто, при условии, что эти сайты находятся на разных хостингах и по таким ссылкам будет идти какой-то трафф. Но для хорошего трафф много ссылок сейчас не достаточно для продвижения в Гугле, а в Бинге вполне реально выползти в ТОП.
Тоже считаю, что доры на WP - это мазохизм в чистом виде. Ты каким-то своим самописом генеришь свои доры, которые регулярно обновляются, или ты не обновляешь их совсем, сделал и забыл? Сейчас ищу скрипт, который хорошо генерит статитику и линкует ее, плюс парсер нужен для текстов с сайтов, ну и еще пару моментов нужно учесть и внедрить, чтобы доры не повторяли чужие ресурсы.
У Гугла есть, действительно, такие алгоритмы, но по вычислению подозрительных ссылок, а не комментариев. Комменты - это все лишь контент и новые ключевые запросы для ранжирования страниц сайты в выдаче.