- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
в четверг были проставленны ссылки блоком из 20 шт на главных с сетке из 80 сайтов, в пятницу, т.е. сегодня обнаружил что из 20 сайтов на которые проставлялись ссылки в индексе ни одного ( до сего момента были), а из 80 сайтов те что были в зоне ру тоже исчезли из базы яндекса (50 шт) остались в базе только в зоне .инфо и зоне .сом (30 шт) из чего напрашивается вывод : существует некий автоматический фильтр, который это все и устроил.
еще факты: на 81 сайте этот блок ссылок не поставил, просто так, не хотел, он в индексе остался.
Почему не исчезли другие 30 шт сайтов в дешевой зоне? На них стоял тот же самый блок из 20 ссылок. Предполагаю что робот яндекса просто туда зайти не успел. поскольку штормило его свего на 68%.
Что предпринял: снял блок ссылок с 50 сайтов в зоне ру, на 30 других снизил колличество до 9 шт.
Написал письмо Платону про один из выпавших 20 сайтов, пока не ответил.
Поставил на один из 50 сайтов жирную сылку с главной каталожного сайта.
Жду следующего АПа
есть подвижки в ситуации на мои просьбы разобраться наконец Платон ответил по поводу одного из 20 сайтов которые выпадали после АПа
цитирую
"Сейчас сайт стоит в очереди на индексирование. По мере обхода робота он будет
проиндексирован и станет доступным для поиска.
Проверьте по логам, что отвечал сервер поисковому роботу в момент
переиндексации, после которой страницы выпали из поиска или были
проигнорированы. Возможно, они были недоступны или сервер отвечал в
HTTP-заголовке не верным кодом. Или информация, сообщаемая сервером в
HTTP-заголовке, отличается от реальной (например, не соответствует размер,
указанный в заголовке с реальным размером страницы).
Так же проверьте сами страницы. Некоторые страницы с Вашего сайта считаются
дубликатами и поэтому отсутствуют в результатах поиска. Яндекс не индексирует
дубликаты. Могу посоветовать Вам изменить код этих страниц так, чтобы
выделить их для робота, то есть оставить для индексирования только уникальный,
неповторяющийся контент. Сделать это можно при помощи тегов
<noindex></noindex> - поместите в них те части кода (текстового содержания,
например, меню, заголовки и т.п.), которые одинаковы для всех похожих страниц
сайта."
Из чего можно сделать вывод -сами не знаем, или знаем но вам не скажем, а если и есть какой то фильтр на ссылки с главных то вам не скажем
есть подвижки, появились первые сайты которые были добавлены в адурелку сразу после выпадения и возвращаются сайты в зоне ру, понемного ,жирная ссылка не помогает, сами появляются
Подождите немного. Если есть какие то движения, значит скоро будет всё ок :)
есть подвижки в ситуации на мои просьбы разобраться наконец Платон ответил по поводу одного из 20 сайтов которые выпадали после АПа
цитирую
А не подскажете через какое время ответил, с какой периодичностью терзали и ответил он на запрос из формы или на мыло?
Так же проверьте сами страницы. Некоторые страницы с Вашего сайта считаются
дубликатами и поэтому отсутствуют в результатах поиска. Яндекс не индексирует
дубликаты. Могу посоветовать Вам изменить код этих страниц так, чтобы
выделить их для робота, то есть оставить для индексирования только уникальный,
неповторяющийся контент. Сделать это можно при помощи тегов
<noindex></noindex> - поместите в них те части кода (текстового содержания,
например, меню, заголовки и т.п.), которые одинаковы для всех похожих страниц
сайта."
Фраза очень интересная. И при определенном раскладе объясняющая некоторые мои наблюдения.
Дабы понять расклад, подскажите, а контент на сайтах что из себя представлял? Реальные дубли или был уникальным?
в четверг были проставленны ссылки блоком из 20 шт на главных с сетке из 80 сайтов, в пятницу, т.е. сегодня обнаружил что из 20 сайтов на которые проставлялись ссылки в индексе ни одного ( до сего момента были), а из 80 сайтов те что были в зоне ру тоже исчезли из базы яндекса (50 шт) остались в базе только в зоне .инфо и зоне .сом (30 шт) из чего напрашивается вывод : существует некий автоматический фильтр, который это все и устроил.
Если я правильно понял, то робот Яндекса наткнулся на часть сетки из 80 сайтов, забанил ее. После этого перешел по ссылкам и забанил те сайты, на которые вели ссылки с сетки?
У меня похожая ситуация и понять ее я могу только через такой алгоритм.