- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую.
Такая ситуация.
После перевода сайт на новую верcию joomla, был включен sef.
Для того, чтобы выпали из индекса страницы со старыми урлами, в файл robots добавил правило
Яндекс почти мгновенно отреагировал было около 20к страниц вместе с дублями и т.д. - стало около 5к, как и должно быть.
Гуглуже 2 месяца никак не реагирует, захавал новые страницы, остались старые, итого не пойму откуда, около 200к страниц.
Как же все такие запретить, а главное убрать из индекса гугла все страницы, содержащие
редиректом склеить можно ...
два... у меня 9... (:
У меня все нормально почикал меньше, чем за 2 месяца.
Был старый сайт, переделали полностью.
На старые ставишь 404 ошибку, закрываешь роботс, и все прекрасно удаляет и хавает новое.
У меня все нормально почикал меньше, чем за 2 месяца.
Был старый сайт, переделали полностью.
На старые ставишь 404 ошибку, закрываешь роботс, и все прекрасно удаляет и хавает новое.
Так вот видимо в этом и проблема...
У меня старые страницы вида
index.php?option=com_mtree&task=viewlink&link_id=464&Itemid=171
Ведут либо на главную, либо даже на существующую страницу, но не сефную, то есть у страницы два урла сефный и не сефный...
Может как-то можно по маске редиректить на 404...
Или я даже не знаю как...
Так вот видимо в этом и проблема...
У меня старые страницы вида
index.php?option=com_mtree&task=viewlink&link_id=464&Itemid=171
Ведут либо на главную, либо даже на существующую страницу, но не сефную, то есть у страницы два урла сефный и не сефный...
Может как-то можно по маске редиректить на 404...
Или я даже не знаю как...
Нет, редирект на 404 страницу, это не 404 ошибка, абсолютно разные вещи, и основная ошибка многих.
Видимо в этом и проблема, вам нужно найти способ, чтобы при открытии этих страниц сервер отдавал 404 ошибку, тогда гугл свое дело сделает быстро.
Правильно, я же и спрашиваю, как-то можно по маске отдать 404 ошибку, с помощью htaccess например?
Я вот так роботс настроил и без 404 редиректа все по-удалялось из кеша:
Disallow: /index.php?option=com_mtree
Правильно, я же и спрашиваю, как-то можно по маске отдать 404 ошибку, с помощью htaccess например?
А вы хотите чтобы он из индекса выплюнул все страницы кроме главной?
---------- Добавлено 01.02.2012 в 17:33 ----------
Или только старые?
---------- Добавлено 01.02.2012 в 17:38 ----------
Может тут что нибудь найдёте:
1) sb-money.ru/article.php?a=75
2) devaka.ru/articles/redirect-301
У меня также, только с движком ip board.
Почти такой же запрет Disallow: /*index.php?
Вижу что роботом в вебмастере они блокируются, но в индекс, спустя 2 недели, добавляет каждый день по несколько десятков страниц.
Страницы с ошибкой 404 и запртые роботсом тоже не удаляет уже 3 недели.
У меня был клиент у которого был на всех страницах <meta name="robots" content="noindex">, сайт стоял в топе