- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Есть старый хороший известный посещаемый сайт. В индексе гугла - 50 000+/- 7000 страниц. Чёрт дёрнул сделать сайтмап. загрузил 2 - 50 000 и 38 000 (в один не влезло).
Формат сайтмапа - только урл, никакой доп. инфы типа веса и т.д. Прошёл месяц. в индексе осталось 18 000 страниц. Их 88 000 загруженных через сайтмап урлов в индексе - толькло 5 000.
Кто что может сказать по этому поводу?
Кто что может сказать по этому поводу?
По этому поводу может сказать только телепат
Не видя сайт, наиболее вероятные причины
- дублирующий контент
- недоступность сайтв во время посещения ботов
проблема с дублированием есть. но почему именно загрузка сайтмап повлияла? я так понимаю, что я помог гуглу только быстро найти дубли и выкинуть их?
Совпадение.
Совпадение.
не верю в случайности и совпадения.
проблема с дублированием есть. но почему именно загрузка сайтмап повлияла? я так понимаю, что я помог гуглу только быстро найти дубли и выкинуть их?
Именно это и произошло. Это уже обсуждалось давно, как только появилась возможность загружать сайтмап. Или вы до сих пор не поняли, что беспланый сыр только в мышеловке.
У меня все происходило с точностью до наоборот.:)
Остается только сочувствовать.
Формат сайтмапа - только урл, никакой доп. инфы типа веса
Здесь скорее копайте.
В инструментах WM скорее всего уже warning висит.
Оно конечно пройдёт, но не сразу.
Вар.N2:
Навигация сайта в меню и та топология, что получилась в сайтмапе, не совсем совпадают. Гугл понемногу разбирается и расставляет всё по местам, но так как сайт не маленький, то на это уйдёт время.
Ждите.
Именно это и произошло. Это уже обсуждалось давно, как только появилась возможность загружать сайтмап. Или вы до сих пор не поняли, что беспланый сыр только в мышеловке.
да, только когда в индексе 58 000, он также видит дубли. так что Ваш сыр тут ни при чём
awtech добавил 29.10.2008 в 02:17
Здесь скорее копайте.
В инструментах WM скорее всего уже warning висит.
Оно конечно пройдёт, но не сразу.
Вар.N2:
Навигация сайта в меню и та топология, что получилась в сайтмапе, не совсем совпадают. Гугл понемногу разбирается и расставляет всё по местам, но так как сайт не маленький, то на это уйдёт время.
Ждите.
спасибо за содержательный ответ!
ворнинги есть про дубли тайтлов, дескрипшинов. потихоньку разгребаю. а вот второй вариант, так в сайтмапе (моём) нет топологии, просто список ссылок. сейчас буду читать ФАК сайтмапа более внимательно. там можно сделать топологию?
там можно сделать топологию?
Нет, нельзя.