- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
На двух моих сайтах странная ситуация. В поиске нет не одной страницы, то есть полный бан, а в панели веб-мастер яннекс там где «Загружено*роботом» только 1, главная страница.
Вопрос в том, чего это за фильтр, за что дается и как из него выходить, если только 1 страница загружена и обработана? Как понимаю речи о каком-то не уникальном и не таком содержимом быть не может, раз только 1 страница.
Сайты эти раньше были в индексе, потом попадали в бан, но были страницы загружены все, только в индексе не было, потом снова попадали в индекс, теперь какой-то вероятно новый фильтр.
Кто с таким сталкивался, что это?
Вопрос в том, чего это за фильтр, за что дается и как из него выходить, если только 1 страница загружена и обработана? Как понимаю речи о каком-то не уникальном и не таком содержимом быть не может, раз только 1 страница.
Сайты эти раньше были в индексе, потом попадали в бан, но были страницы загружены все, только в индексе не было, потом снова попадали в индекс, теперь какой-то вероятно новый фильтр.
Кто с таким сталкивался, что это? спортивная одежда billcee
Это АГС. Тоже замечал, что информация о загруженных страницах в ВМ иногда "сбрасывается".
Вариантов масса! не одним АГС живем, возможно глючит хостинг, возможно глючит CMS! Надо смотреть пациентов!
Сча любой косяк готовы отнести к FUC но я думаю что это не правильно!
Так каким же образом тогда сайт попадет в индекс, или пере проверится его содержимое, если страницы не загружены? Что только манипуляциями с главной страницы можно привлечь на внутренние?
Глюков CMS нет, в Google все нормально.
Про АГС много прочел на этом форуме, но там как понял нет полного бана, там остаются некоторые страницы в выдаче, не говоря уже о том, что загруженных страниц 1
Платону не судьба отписать ?
Карту сайта не судьба добавить в вебмастерс, а потом посмотреть логи ?
В поддержку пробовал писать, написали примерно так «алгоритмы определили некачественный контент, развивайте сайт, тогда он появится» , написал в ответ, а как же они определили, если только главная загружена, ответили «мы не вступаем в переписку о причинах и способах их устранения» или как-то так, дело было месяца 4 назад, больше не писал.
Карту сайта естественно добавил, только там где добавлено, стоит дата. Где обработана прочерки, то есть как понимаю либо панель яндекса глючит, либо карта не проверенна.
В логах за месяц
"GET / HTTP/1.1" 200 8076 "-" "Mozilla/5.0 (compatible; YandexBot/3.0; +http://yandex.com/bots)"
"GET /robots.txt HTTP/1.1" 200 2088 "-" "Mozilla/5.0 (compatible; YandexBot/3.0; MirrorDetector; +http://yandex.com/bots)"
/ HTTP/1.1" 200 8076 "-" "Mozilla/5.0 (compatible; YandexBot/3.0; MirrorDetector; +http://yandex.com/bots)"
Эти строчки многократно повторяются, раз 5 за месяц, за другие месяцы логов у меня нет, такова специфика работы хостинга.
Сайту года два, это одному, второму три, но принцип тот же.
На втором есть подозрение, что это из-за доски объявлений там размещенной, так как её периодически спамят и периодически вычищаю. Наверное яндексу это не нравится, но у гугла все нормально. Как думаете, если доску закрыть в robots.txt может отстанут. Эта доска там не главное на сайте.
Никакой рекламы, внешних ссылок на сайте нет, правда есть внешние ссылки через ява скрипт вида в тексте некоторых страниц, на ссылки по теме. Ссылки не на плохие сайты, а на википедию, всякие сайты производителей, больших компаний.
<a rel="nofollow" onclick="window.open('/);return false;" target="_blank" href="#">www.forum.searchengines.ru/</a>
Может это плохо, не знаю, но думаю что если это проблема, но эти страницы во внутренних третьего уровня. Самое странное, что у меня есть еще третий сайт, которым вообще не занимался года 3. Там там на главной странице ничего нет вообще, только написано главная, на внутренних уроки по работе на ПК, и ничего сайт в индексе.
Может кто-то что-то сказать о том, что такое чувство, что строгость фильтров яндекса связанна с тематикой сайта. То есть, правильно ли так, что если вы сделаете ужасный сайт с дебильным контентом о каких-то диких племенах живущих тысячу лет назад, то все будет ОК, но если вы сделаете нормальный сайт о, ну допустим о продаже запчастей для авто в Москве, при том не будите ими торговать, а сделаете своего рода обзор, каталог предложений с аннотацией, всякой теорией и практикой по теме, без рекламы и намека на извлечение какой-то прибыли, то на ваш сайт будут ходить всякие суперцензорные боты, которые будут высматривать там ваши CSS и JavaScript на уникальность?
Платону не судьба отписать ?
Тут.. походу самим сайтам уже не судьба..
Сайты эти раньше были в индексе, потом попадали в бан, но были страницы загружены все, только в индексе не было, потом снова попадали в индекс
теперь снова:
В поиске нет не одной страницы
А может главная страница в Noindex, а может в роботстхт запрет индексации, а может... и таких может очень много. Или показывай сайт или читай форум.
Индексация не запрещена, и к тому же эти сайты в Гугле есть, один, которому 3 года даже на первом месте по своей тематике, второй на третей странице, но там он есть и никаких поводов для раздумий, так как и в Яху, и всех остальных поисковиках на западе, которые индексируют русский текст нет никаких поводов для раздумья. Поэтому написал в раздел про Яндекс.
Показывать тут ничего смысла не вижу, так как вопрос был не о том, что с моим сайтом конкретно, а бывает ли такое у других, и как примерно они решают эти проблемы. Тема называется "что за фильтр?" а не "как мне решить мои проблемы?"
То есть интересует вопрос систематично ли такое, много ли таких случаев, примерно после каких действий это пропадает, а если более конкретно. Интересует вопрос, не может ли теоретически какой-то сотрудник в Яндексе, который может работает удаленно, или по совместительство, который занимается продвижением, или созданием сайтов руками выкидывать оттуда то, что мешает его работе, и писать о том, что алгоритм что-то нашел? И каков процент таких случаев из того, как алгоритмы что-то где-то нашли не заходя на сайт.
Потому что уж сильно закрадывается такое чувство.
Форум читал, похожего вопроса пока не нашел.
Такое ощущение, что ТС лет 10........
По стилю написания постов по крайней мере.........
Такое ощущение, что ТС лет 10........
По стилю написания постов по крайней мере.........
Так и есть, наверное. Тебе, кстати, не больше.