- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день! Занимаюсь продвижением сайта логистической компании, которая занимается грузоперевозками. Основной пул запросов по которым мы продвигаемся выглядит примерно так: «Грузоперевозки из Санкт Петербурга в Москву» ну и различные словоформы. Поэтому при проектировании сайта было принято решение сгенерировать страницы различных направлений (500к страниц) и такая технология на данный момент успешно себя показывает в яндексе (тоже были некоторые проблемы с индексацией, но их удалось решить). Но гугл упорно сопротивляется и 90% подобных страниц на данный момент не проиндексировано. Однако в гугле есть положительная динамика инексации, но она катастрофически долгая (проиндексировано примерно 22к страниц из 500к). Генерированные страницы максимально уникализированы насколько это возможно в генерированном формате. У нас уникальные мета теги, заголовки, направления в калькуляторе, направления в карточках автомобилей и уникальный блок перелинковки с похожими направлениями. Подскажите, может кто сталкивался с данной проблемой? Как можно ускорить индексацию?
Что касается моих предположений:
1) У нас очень кривая структура и нет четкого логического дерева вложенностей (знаем про эту проблему, потихоньку решаем)
2) Ссылки в карте сайта указаны с полледним слеш «/» а актуальные версии страниц без слеша (тоже стоит задача программистам)
Отпишите рекомендации если кто-то уже решал подобную задачу
Пример генерированной страницы clever-logistics.ru/directions/spb__msk
текст решает вопрос, ссылки ,
xVOVAx, Были мысли сделать генерированный текст с переменными, но уж очень не хочется засирать сайт портянкой которая никому не нужна, к тому же проблему уникальности контента решили при помощи других блоков. Может еще есть какие-то способы?
Что подразумевается под ссылками? Внешние или внутренние с сайта? (С внутренними проблему частично решили, пока не помогло. Структуру еще оптимизируем)
уникальности контента решили при помощи других блоков.
Каких таких других? Текст есть текст и неуник или без текста гугл теперь не любит
---------- Добавлено 05.02.2020 в 15:41 ----------
Что подразумевается под ссылками? Внешние или внутренние с сайта? (С внутренними проблему частично решили, пока не помогло. Структуру еще оптимизируем)
Конечно про внешнее ссылочное
А внутри по дефолту перелинковка должна быть на уровне
Добрый день! Занимаюсь продвижением сайта логистической компании, которая занимается грузоперевозками. Основной пул запросов по которым мы продвигаемся выглядит примерно так: «Грузоперевозки из Санкт Петербурга в Москву» ну и различные словоформы. Поэтому при проектировании сайта было принято решение сгенерировать ...
Отпишите рекомендации если кто-то уже решал подобную задачу
Пример генерированной страницы clever-logistics.ru/directions/spb__msk
У меня тоже есть сайт с нагенеренными 9 млн страницами. Значительно ускорить индексацию поможет отключение JavaScript и динамическая генерация sitemap.
---------- Добавлено 05.02.2020 в 17:34 ----------
Добрый день! ...
Чутка погуглил для тебя. Если с инглишем не дружишь, чекни переводчиком https://davidkunnen.com/how-to-get-250k-pages-indexed-by-google/
У меня тоже есть сайт с нагенеренными 9 млн страницами. Значительно ускорить индексацию поможет отключение JavaScript и динамическая генерация sitemap.
У нас уже реализовано, роботам отдается вариант в формате html+css
---------- Добавлено 05.02.2020 в 15:12 ----------
Конечно про внешнее ссылочное
Не такая простая задача прикупить ссылок на 500к страниц, да и мало верю в эффективность, т.к. анализировал конкурентов в гугле у них ссылочная масса примерно такая же как и у нас. Но при этом индексируются нормально. Насчет текстов, как уже говорил, но если не найдем варианта лучше будем тестировать