- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, столкнулся с ситуацией что Яша показывает в индексе под две одинаковых страницы, кто-нибудь знает с чего это? Сайт более 2х лет, с таким ни разу не сталкивался, появилось это 3 апа назад, еще подумал - глюк, в прошлый ап такого не стало, подумал - ну точно глюк, а в этот опять в индексе появилось по две страницы и еще до кучи из индекса вылетело около половины сайта. Глюк ли это или что-то изменилось в алгоритме яндекса и он теперь как-то по другому индексирует и из-за этого омжно даже под фильтры попасть?
Сразу скажу что в индексе не страницы с www и без, тупо страницы идут:
сайт.com/stroitelstvo
сайт.com/stroitelstvo
сайт.com/index.php?newsid=6
сайт.com/soveti
сайт.com/soveti
и т.д.
Ах, да, что еще странно, проиндексировались страницы закрытые в роботс, это уж я совсем не понимаю, раньше их не было в индексе. ( я о страницах вроде: /?do=register /?do=lostpassword и т.д.).
Урл сайта могу показать по запросу в личку (в теме не писать).
у меня главная 2 раза проиндексировалась,тоже интересно - в чем прикол?
У меня при одном апе было более 100 страниц главной, при следующем исчело
На то он и АП, чтобы творить чудеса. АПа закончится, и чудо-страницы исчезнут... ну должны исчезнуть.
А host в robots.txt указан?
Видимо, что нет... Скорее и роботса тоже...
У вас дле стоит, там, чтоб учитывался файл роботс.тхт нужно удалить метатэг, говорящий поисковой системе о том, что индексировать нужно все. Яндекс при виде его даже не смотрит в роботс. Удалить его надо в файле енджайн.пхп в папке енджайн, по-моему. Должно спасти. Я вот сейчас так своим сайтам сделал, ото тож проиндексировалось все, что не должно было.
Тут 2 варината - либо быстробот, либо не склеилось зеркало с www или без www.
Теоретически может быть и 4 раза страница быть в индексе: по 2 раза с www и без, и по 2 быстроботная страничка и простая.
Тут 2 варината - либо быстробот, либо не склеилось зеркало с www или без www.
Теоретически может быть и 4 раза страница быть в индексе: по 2 раза с www и без, и по 2 быстроботная страничка и простая.
Было и такое.
Как правило просто подождать и ситуация нормализуется, наблюдается часто у новых сайтов, когда только Яша пытается клеить домен. Поэтому всегда при создании нужно хотя бы хост в роботсе прописать.
В том-то и дело что ситуация повторяется уже второй раз, я думаю чудеса два раза не бывают просто так=)
Видимо, что нет... Скорее и роботса тоже...
Роботс есть и хост указан, но слова Nominder очень интересны.
Три года работаю с ДЛЕ а об этом не знал, спасибо большое, сегодня покопаю.
И правда нашел: <meta name="robots" content="all" />. Спасибо еще раз.
А что значит это: <meta name="revisit-after" content="1 days" /> ?
Теоретически может быть и 4 раза страница быть в индексе: по 2 раза с www и без, и по 2 быстроботная страничка и простая.
Нет Алексей, я сразу упомянул что нет дело в www и без т.к. в индексе просто по две одинаковых страницы.
Быстробот говорите, хм, страницы старые, по идее не для быстробота они..
Вот что странно - ситуация второй раз повторяется, раньше такого не было, посмотрел другие сайты, роботс.txt у меня везде одинаковый, так на других сайтах подобной ситуации нет, неужели глюк второй раз.
Не переживаете, Яндекс дубли скоро убьет.
Не переживаете, Яндекс дубли скоро убьет.
Меня не столько дубли пугают, сколько ситуация после них, я же говорю что страниц в индексе стало в два раза меньше у старого сайта, кол-во страниц не менялось на протяжении года, а тут - бац..