Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006

Полностью поддерживаю. А всякие "вдруг" и "нолик запал" - это все от лукавого.

burunduk:
.... в которой оптимизатор подробно расписывает все те методы и приемы которые он может применить при продвижении конкретного сайта....

Например "Я буду пытать тебя очень изощренно. Сначала будут клещи - ими я вырву все ссылки с сайта, которые не ведут на продвигаемые страницы. Потом буду клеймить каленым тайтлом все то, что по праву считаю своим. Потом я воткну крюки и буду подвешивать на них ссылки. Потом... потом я продолжу научные изыскания в области прикладной оптимизации" 🚬

Можно. Но для бОльшего эффекта покупать ссылки нужно и те внутренние страницы, которые стремитесь вывести в ТОП.

terehoff:

Что скажете по этому поводу, прокатит ли как дополнение к методам продвижения?

Прокатит и работает. Да и метод известен и используется давно. Для желающих поэкспериментировать есть ссылка в подписи :)

mephy:
kimberlit, вес обычного h1 в моём случае равен 1.

П.С. Такой Тег идеален для тех кому важна внутренняя оптимизация и не хочет портить дизайн "связкой ключей"

Такой тэг идеален для бана по стуку :)

sanitarn:
А что нужно для получения новой версии, у меня последняя версия 1.3 (библиотека версии 1.4) ?

Мыло мне напомните - вышлю новую версию.

sanitarn:
Последняя версия программы то какая? А то так и не поймешь, обновилась она или нет.

Последняя 1.5.4b

-------------------------------------

Я еще раз хочу напомнить:

Программа не предназначена для больших сайтов. Максимум, что удавалось вытащить, это до 5К страниц. Оптимально - до 1000 страниц. Реальную пользу программа принесет при настройке небольших корпоративных сайтов, поскольку 200-300 страниц еще можно отследить глазами и настроить руками, а вот бОльшее количество - просто запутаетесь сами.

Программа отлично подходит для экспериментов. Т.е. работая с небольшим сайтом, закрывая и открывая ссылки от индексации, можно определиться с оптимальной схемой перелинковки, которую потом можно применить на сайтах бОльших размеров.

CatRegist:
Не 15 минут на страницу, а 15 минут на 1000 страниц при самых скверных параметрах забора. На 500 000 с одного источника (50 потоков, машина держит 5-10x50) уходит около 10 часов, с поверхностным анализом.. речи не идёт о заумных формулах, просто статистика получаемая от ПС, перелинковки и соотношений внутренних и внешних.

Так я про то и говорю. Что бы определить стат вес одной страницы нужно отпарсить и рассчитать весь сайт (кстати сам расчет занимает не более 10% от временнЫх затрат). Если взять средненький сайт под сапу объемом в 200 страниц, то его скан и расчет займет порядка трех минут. При выборке по широкому фильтру дабы отобрать именно по качеству площадок, а не по пузомеркам, нужно в сервис заливать не одну тысячу ссылок (читай сайтов). И времени это займет соответственно.

CatRegist:
Абсолютно не так. На обработку сайта с 1 000 страниц в среднем, при хороших каналах, уходит максимум 8 минут (если сайт где то в антарктиде и пинг слабый) + анализ.. да.. с этим сложнее, на всё про всё 15 минут с одной машины.

Угу 15 минут умножаем на 1000 проверяемых страниц с разных сайтов = 250 часов или 10 суток без перерыва. Из этой тысячи в итоге отобрали и купили 300 штук, и загнали следующую тысячу на проверку ... и т.д. :)

kapow_expert:

1. Проверка уникальности текста на сайте, который ссылается
2. Проверка местоположения ссылки на странице для суеверных
3. Определение тематики страницы донора и акцептора. Фильтр на неподходящие.
4. Определение статического веса страницы (хотя бы внутренний вес. внешний будет сложновато.)
...

Позволю себе ИМХО:

1) Действительно грозился реализовать сеопульт

2) Действительно для суеверных, да и тольку, имхо, ноль :)

3) Определять тематику по ЯК и ДМОЗ фигня - банально мало площадок под нужную тематику, а брать размытую с верхних уровней, то же, что и не брать вообще. Определять тематику самостоятельно... ну, над этим участники РОМИП не первый год бьются :)

4) Обломайтесь :) Тут говорю с некоторым знанием дела (см. подпись) Скорость индексации десктопного приложения крайне низкая, серверного на порядки выше, но все равно не то. Сайт сайту рознь, и для индексации сайта на 100К страниц и более может уйти сутки. При массовой покупке и проверке ссылок (от 1000 и более) отбор с учетом внутренней развесовки займет очень много времени.

Всего: 2040