- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вообщем домен старый, был на нем сайт урлы типа artic=120& ну и т.д., 2 года назад сайт я переделал, движек через мод_реврите имеет "красивые урлы" ну и т.д., сайт большой, куча всего, все уник., вообщем в структуре сайта в панеле в яше, показываются порядка 800 урлов от старого, задавал както вопрос в суппорт посоветовали исключить из индекса весь сайт потом опять добавить, чтото не хочется, вообщем в robots.txt задал запрет индексации этих урлов, прошло месяца 4 непомогает. Сайт обрабатывает вообще все урлы, если нет то пишет что нет такой страницы на сайте, всего в индексе 9к страниц, так вот можно какнибудь безболезненно избавиться всетаки от этих лишних страниц
Сайт обрабатывает вообще все урлы, если нет то пишет что нет такой страницы на сайте
В заголовке отдает header("HTTP/1.0 404 Not Found") или 200 OK?
Настраивайте, нерабочие урлы бот выкинет сам, после нескольких обходов.
движек через мод_реврите
Движок на иврите работает, наверное :)
в htaccess пропишите 302 редирект со старых страниц на новые
и редирект будет работать и потихоньку вылетят все старые страницы с индекса ПС
sergeykur, еще можно запретить эти страницы в robots.txt и потом воспользоваться этой страничкой: http://webmaster.yandex.ru/delurl.xml
sergeykur, еще можно запретить эти страницы в robots.txt и потом воспользоваться этой страничкой: http://webmaster.yandex.ru/delurl.xml
Для быстрого удаления всегда так делаю, просто если у вас урлов удалять много то запретите
в robots
url/stranica.php?article=
и здесь выберите
удалить весь подкаталог (все URL, начинающиеся с данной строки)
тогда удалит все url/stranica.php?article=
обычно в течении нескольких апов удаляет
url/stranica.php?article=
и здесь выберите
удалить весь подкаталог (все URL, начинающиеся с данной строки)
Что я и имел ввиду ;)
вообщем в robots.txt задал запрет индексации этих урлов, прошло месяца 4 непомогает
Если robots.txt составлен правильно, за это время страницы должны были удалиться.
Вы бы ссылку на сайт дали, тогда посоветовать можно что-то конкретное.
если все страницы имеют урл типа artic=блаблабла , то в robots.txt
Disallow: /artic=
но лучше 301 редирект с них на морду если контента по ним нет
безболезненно избавиться всетаки от этих лишних страниц
от них надо не избавляться, а делать 301 редирект, как вам уже сказали.
Страницы могли набрать вес за этом время (PR, виц) - этот вес надо перелить на новые аналогичные. я в похожей читации делал 301-редирект через .htaccess - это имхо самый правильны способ
в htaccess пропишите 302 редирект со старых страниц на новые
Разумеется, это вредный совет, редирект должен быть 301.