- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет,
Пытаюсь бороться с излишней самостоятельностью гугл чуть ли не второй год, но то ли я тупой, то ли лыжи не едут.
Вы знаете, что гугл плевал на все вообще и на роботс в частности. Только если ты сайт весь закрыть решил, тогда он всегда готов за пару часов все удалить и деловито в консоли выдаст красную ошибку.
Так вот беда в дублях, с которыми ничего не происходит все эти два года ( в яндексе все решается за пару обновлений выдачи).
1. Висят до сих пор в поиске страницы, которых нет уже неизвестно сколько времени и по ним 404 ошибка. Висят страницы, с которых 301 редирект рядом с теми, на которые этот самый редирект установлен.
2. Висят страницы, которых как бы и не было - Страницы формата site.ru/страница.html/страница.html/страница/ (бред, который вроде бы производил битрикс, но в яндексе таких историй нет и физически таких страниц не существовало.)
Что я пробовал:
1. бороться с дублями средствами битрикс - работает только для яндекса
2. Удалять эти страницы вручную через консоль - мимо
3. Удалять эти страницы вручную через консоль, затем закрывать вообще наглухо сайт, чтобы полностью по новой переиндексировать - мимо
4. И самое веселое - в роботс закрывал от индексации эти самые дубли. И консоль показывала, что их нельзя индексировать. Но они не пропадают уже годы.
Теперь вопрос. Уважаемые знатоки - сдаться или продолжать борьбу?