- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Испольовали фреймворк "симфони", но не закрыли его в роботсе. Получилось, что в индекс залетели дубликаты урлов со вставкой /app.dev.php/
Теперь уже закрыли это дело в роботсе.
Мы склеили 301-м редиректом дубликаты и сверху.
И тут меня мучает вопрос:
После склейки 301-м нужно ведь открыть обратно, чтобы робот просканировал, правильно ведь?
Страница выпала из индекса?
---------- Добавлено 15.08.2014 в 17:15 ----------
зайди в вебмастер в индекс ссылок найди ссылку там если она есть в индексе и пройди по ней будет понятно все
Страница выпала из индекса?
---------- Добавлено 15.08.2014 в 17:15 ----------
зайди в вебмастер в индекс ссылок найди ссылку там если она есть в индексе и пройди по ней будет понятно все
Что будет понятно? Странице и те и те что мы скелели еще в индексе. Вот я и хочу узнать, когда вылетят с индекса дубли
Ну что, никто мне ничего не посоветует?
Посоветую. Вообще откройте в роботсе.
почему не удалить мешающие урлы в Гугл.Вебмастере?
Да, нужно открыть страницы для индексации в robots.txt, иначе они будут висеть в соплях.
Чтобы ускорить процесс склейки можно:
- создать sitemap.xml со списком дублей
- отправить sitemap.xml и страницы дублей на принудительную индексацию в GWT
почему не удалить мешающие урлы в Гугл.Вебмастере?
Удалял, туговато дело идет, очень медленно удаляются, а некоторые и вообще не удаляются. Кроме того, я читал в гугл справке, что удалять такмо бразом можно только конфиденциальную инфу, которая случайно попала в индекс.
---------- Добавлено 19.08.2014 в 12:22 ----------
Да, нужно открыть страницы для индексации в robots.txt, иначе они будут висеть в соплях.
Чтобы ускорить процесс склейки можно:
- создать sitemap.xml со списком дублей
- отправить sitemap.xml и страницы дублей на принудительную индексацию в GWT
Та да, уже дубликаты все склеили, а они висят и повторяющиеся тайтлы в GWT только увеличиваются. Буду открывать.
За карту сайта, да, идея хорошая, но на данный момент нереализуемая по ряду причин.
А что если добавлять такие урлы в аддурилку? Это же своего рода ускоряет индексацию в принципе.
---------- Добавлено 19.08.2014 в 12:36 ----------
Или даже те все сопли прогнать по твиттеру, быстрее переиндексируется, я же думаю в правильном направлении??
В общем открыл я заблоченные в роботсе урлы с которых мы редирект поставили. Буду смотреть, правильно ли я предположил. Думаю а недельку-две будут результаты.