Полностью поддерживаю. А всякие "вдруг" и "нолик запал" - это все от лукавого.
Например "Я буду пытать тебя очень изощренно. Сначала будут клещи - ими я вырву все ссылки с сайта, которые не ведут на продвигаемые страницы. Потом буду клеймить каленым тайтлом все то, что по праву считаю своим. Потом я воткну крюки и буду подвешивать на них ссылки. Потом... потом я продолжу научные изыскания в области прикладной оптимизации" 🚬
Можно. Но для бОльшего эффекта покупать ссылки нужно и те внутренние страницы, которые стремитесь вывести в ТОП.
Прокатит и работает. Да и метод известен и используется давно. Для желающих поэкспериментировать есть ссылка в подписи :)
Такой тэг идеален для бана по стуку :)
Мыло мне напомните - вышлю новую версию.
Последняя 1.5.4b
-------------------------------------
Я еще раз хочу напомнить:
Программа не предназначена для больших сайтов. Максимум, что удавалось вытащить, это до 5К страниц. Оптимально - до 1000 страниц. Реальную пользу программа принесет при настройке небольших корпоративных сайтов, поскольку 200-300 страниц еще можно отследить глазами и настроить руками, а вот бОльшее количество - просто запутаетесь сами.
Программа отлично подходит для экспериментов. Т.е. работая с небольшим сайтом, закрывая и открывая ссылки от индексации, можно определиться с оптимальной схемой перелинковки, которую потом можно применить на сайтах бОльших размеров.
Так я про то и говорю. Что бы определить стат вес одной страницы нужно отпарсить и рассчитать весь сайт (кстати сам расчет занимает не более 10% от временнЫх затрат). Если взять средненький сайт под сапу объемом в 200 страниц, то его скан и расчет займет порядка трех минут. При выборке по широкому фильтру дабы отобрать именно по качеству площадок, а не по пузомеркам, нужно в сервис заливать не одну тысячу ссылок (читай сайтов). И времени это займет соответственно.
Угу 15 минут умножаем на 1000 проверяемых страниц с разных сайтов = 250 часов или 10 суток без перерыва. Из этой тысячи в итоге отобрали и купили 300 штук, и загнали следующую тысячу на проверку ... и т.д. :)
Позволю себе ИМХО:
1) Действительно грозился реализовать сеопульт
2) Действительно для суеверных, да и тольку, имхо, ноль :)
3) Определять тематику по ЯК и ДМОЗ фигня - банально мало площадок под нужную тематику, а брать размытую с верхних уровней, то же, что и не брать вообще. Определять тематику самостоятельно... ну, над этим участники РОМИП не первый год бьются :)
4) Обломайтесь :) Тут говорю с некоторым знанием дела (см. подпись) Скорость индексации десктопного приложения крайне низкая, серверного на порядки выше, но все равно не то. Сайт сайту рознь, и для индексации сайта на 100К страниц и более может уйти сутки. При массовой покупке и проверке ссылок (от 1000 и более) отбор с учетом внутренней развесовки займет очень много времени.