- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Наблюдается следующая проблема.
На сайте около 500 страниц. В базе Яндекса постоянно находятся 100+-20страниц, число их постоянно меняется.
Вопрос: Возможно ли структурой сылок на сайте зациклить робота таким образом, что он не проходит дальше определенных страниц?
ps. Страницы генерируются скриптом, но информация на них не меняется. URLы сделаны через mod_rewrite.
Недавно видел такую ошибку: на странице была ссылка на "режим для печати", устроенная так:
<a href="CURL?print=1">print</a>, где CURL - текущий адрес. По ошибке программиста эта ссылка была и на самой странице для печати. В результате, роботы лезли на адреса
site.ru/?print=1
site.ru/?print=1?print=1
site.ru/?print=1?print=1?print=1
и т.д.
И это было для всех страниц сайта! :)
Короче, индексировалось всё медленно и находилось плохо, т.к. роботам приходилось качать много одинаковых страниц, а потом ещё и убивать дубли. Может и у Вас что-нибудь похожее сделано? Такую ошибку легко найти, посмотрев, чего именно качают пауки.
Artad, нам знаком ваш сайт. На нем стоит ручной фильтр.
Какова причина фильтра? Или мы может быть говорим о разных сайтах?
Ведь адреса я не давал :)
Какова причина фильтра?
да, мне это тоже очень интересно
Яндeкс,
[offtop]
скажите в чем причина, дельных мыслей не получил:
/ru/forum/43704
[/offtop]
Какова причина фильтра? Или мы может быть говорим о разных сайтах?
Ведь адреса я не давал :)
Адрес твоего сайта Яндекс нашел на этом или каком-то другом форуме. Видимо когда-то ты всеже проговорился. Поищи в нете свои сообщения и поудаляй быстрее. 🙅
Artad, а вы не в курсе, что мы можем его итак определить?
Вы описали достаточно признаков для выделения группы сайтов. Остальная информация о вас взята прямо на этом сайте из открытых источников. Например IP определен по ICQ.
Artad, а вы не в курсе, что мы можем его итак определить?
Вы описали достаточно признаков для выделения группы сайтов. Остальная информация о вас взята прямо на этом сайте из открытых источников. Например IP определен по ICQ.
с 1-м апреля!
"яндекс" жжот нипадецки.
---------
З.Ы. Яш.. ты это.. осторожнее.. тут все хронические параноики..☝
IP по ICQ не всегда определишь когда в онлайне. А я вообще аську последние несколько дней не включал
:)
Artad, логи хранятся. Не думаете же вы, что у нас нет друзей среди провайдеров?