- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте. Надеюсь в правильную ветку запостил, если что перенесите пожалуйста.
Есть сайт на DLE. Решил я его проанализировать по занимаемым позициям в ПС по определенным запросам (сервис сайта pr-cy.ru).
Для многих запросов, анализатор определил релевантную страницу типа: http://site.ru/index.php?newsid=1,2,3 и так далее. Хотя, есть страницы типа http://site.ru/категория/новость.html которые создавали изначально. И получается, что страницы с newsid дубли.
ПС проиндексировали эти страницы дубли. Но откуда они появились?
Подскажите каким способом их убрать? Сделать 301 редиректы?
Если смотреть по статистике Liinternet по точкам входа, то вроде как все идут на нормальные страницы типа: http://site.ru/категория/новость.html
Откуда взялись дубли, не пойму. Могло ли это повлиять на позиции? Так как последнее время наблюдал спад. В общем буду благодарен за любую информацию о этих страница "newsid".
Вопрос остается открытым, кто может, подскажите.
301 редирект
мета-тег canonical
Помогут.
Пользоваться с умом.
У вас там случаем link rel='shortlink' не стоит?
Все просто, если одна новость по двум адресам, просто добавь в robots.txt правило типо Disallow: /*?* и будет тебе счастье, все страницы в адресе которых содержится знак "?" исчезнут из выдачи Яндекса, а аналогичные им страницы с нормальными адресами получат дополнительную релевантность и немного приподнимутся в поиске ! Проверено на собственном опыте.
Ух ты, спасибо за советы!
Нет, link rel='shortlink' не стоит. Я так понимаю мета-тег canonical, это под гугл? С гуглом все в порядке, он эти дубли не видит, только яндекс.
Теперь делема, как сделать 301 редиректом или в роботсе закрывать)) Попробую роботсом.