- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Проблема с нижним регистром осталась.
Проблема с нижним регистром осталась.
Какой сайт? Тестировали на 3-х проблем не было.
подорожала программка, я правильно понял?
подорожала программка, я правильно понял?
С момента старт топика программа подорожала уже дважды. И дальше тоже дешеветь не будет )
Скажите, а справится программа с сайтом, где 1 млн. страниц?Какие мощности мне потребуются, что "осилить" этот объем?
Скажите, а справится программа с сайтом, где 1 млн. страниц?Какие мощности мне потребуются, что "осилить" этот объем?
Тут больше от количества ссылок зависит, чем от количества страниц. Не могу гарантировать на 100 %. 600К вытягивали, а лям не помню..
Какой сайт? Тестировали на 3-х проблем не было.
Я сейчас перепроверяю данные
Тут больше от количества ссылок зависит, чем от количества страниц. Не могу гарантировать на 100 %. 600К вытягивали, а лям не помню..
Окей, тогда может есть какой-то "особенный" способ для анализа крупных ресурсов? Если анализировать по частям, адекватных данных мы не получим..
Окей, тогда может есть какой-то "особенный" способ для анализа крупных ресурсов? Если анализировать по частям, адекватных данных мы не получим..
Мне о таких не известно
В принципе, основные внутренние ссылки - это сквозное внутренне меню или например каталог товаров. Если как-то в программе задать ссылки меню - как шаблон для каждой страницы сайта, или для маски урлов. То если программа не будет по ним идти, при посещении каждой страницы, то это сильно ускорит скан и снизит нагрузку. А вот при расчёте веса, уже эти ссылки подставятся для каждой страницы как фиксированные значения утечки/перетечки веса. Как моя идея?