- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые форумчане, помогите разобраться.
Вылетели почти все страницы из индекса Яндекса. Остались только 2: главная и еще одна (важная) - на которые были внешние ссылки.
Почему-то и в Yahoo порезало страниц до 6.
Это сателлит - внешне как СДЛ. Домену почти год. ТИЦ=10. Страниц=87.
До этого индексировался без проблем. В Гугле все было и остается - ОК.
Контент: наполовину скан - тщательно отредактированный и отрерайченный (в ущерб смыслу, но грамотно), наполовину - сочиненные статьи технического содержания без особого смысла, но грамотные по всем нормам русского языка (можно сравнить с Яндекс-Весна).
Уникальность всего контента, включая картинки,- 85-100%.
Внешних ссылок минимум. Один сквозняк (не через все страницы) на основной сайт. И несколько СДЛ-статей Миралинкса.
Внутри сайта для быстрой индексации сделано все: карта сайта в формате самого сайта (со сквозной ссылкой на нее на всех страницах) и в XML (указанная в Роботсе).
Вылетевшие страницы успешно добавляются в адурилку Яндекса.
В Вебмастере:
файл sitemap.xml (настройка индексирования) загружается почти каждый день и считывает все ссылки без ошибок и замечаний,
а в "Общей информации" загружено роботом - 78, страниц в поиске - 2.
Такая ситуация продолжается уже неделю. Дважды писал в техподдержку - безответно.
Мог ли Яндекс "просечь", что большая часть контента не предназначена для людей? Все тексты грамотные - по пунктуации, орфорграфии и стилистике, ключевыми словами не перенасыщены. Их даже можно читать - просто скучный, малопонятный технический язык.
Но робот в принципе не может определить: интересен текст или нет? Или, может быть, наряду с % уникальности уже вычисляется и % СДЛ-ности текста? И может ли быть наложен фильтр из-за низкой СДЛ-ности? :crazy: Других причин я не вижу, на проблемы хостинга не похоже.
crosstrannik добавил 18.01.2011 в 20:35
Пришел-таки ответ.
Приношу свои извинения за задержку с ответом. Обратите внимание, не все страницы, известные поиску Яндекса, включены в индекс и ранжируются высоко. Их включение и позиция зависят от качества сайта и его контента. В случае, если сайт не соответствует нашему пониманию качественного сайта, он может быть ограничен в поиске.
Наше понимание качественных сайтов отражено в следующих документах:
http://help.yandex.ru/webmaster/?id=995342
http://webmaster.ya.ru/replies.xml?item_no=325&ncrnd=2022
http://webmaster.ya.ru/replies.xml?item_no=3772
http://webmaster.ya.ru/replies.xml?item_no=4967&ncrnd=1743
http://company.yandex.ru/rules/optimization/index.xml
Если Вы будете развивать свой сайт для пользователей, размещать на нём уникальную и полезную информацию, следуя нашим рекомендациям, то со временем он будет представлен в поиске большим количеством страниц.
---
С уважением, Платон Щукин
Служба поддержки Яндекса
http://help.yandex.ru/
Сделайте сайт более заметным в результатах поиска: http://content.webmaster.yandex.ru/?from=support
- и ничего конкретного
Покажите сайт, чтобы сказать что-нибудь конкретное.
- и ничего конкретного
Почему же?
На всякий случай проверьте роботс.тхт, если недавно носили изменения, структуру урлов и т.п.
Но, скорее всего, АГС.
Одно непонятно, зачем же делать рерайт в ущерба смыслу? Дешевле что ли? :)
Почему же?
На всякий случай проверьте роботс.тхт, если недавно носили изменения, структуру урлов и т.п.
Но, скорее всего, АГС.
Одно непонятно, зачем же делать рерайт в ущерба смыслу? Дешевле что ли? :)
роботс.тхт, урлы - все четко
рерайт - потому что отдельные фрагменты скана встречались (или могли встретиться) в ПДФ-файлах на других сайтах. Ад. Плагиатус не всегда четко улавливает такие копии.
Непонятно одно: каким образом робот🤣 мог понять, что содержание бесполезно? Определить это может только человек? Не читал же мой сайт человек Платон Щукин!
Подчеркиваю: текст почти безупречно грамотен и читабелен, все слова в рамках одной тематики. Он просто неинтересен и туманен по содержанию.
Остается выяснять: по какому алгоритму у Ян. оценивается СДЛ-ность текста? Не умнее😎 же он Гугла, который все это индексирует!
Вылетели почти все страницы из индекса Яндекса. Остались только 2: главная и
Верный признак АГС
И это верное тому подтверждение
А в тексте нет остатков скана?
Текст писался вручную или это автоматический рерайт?
Возможно Яндекс определил текст как неуник и по совокупности факторов закатал под АГС.
А в тексте нет остатков скана?
Текст писался вручную или это автоматический рерайт?
Возможно Яндекс определил текст как неуник и по совокупности факторов закатал под АГС.
В том-то и дело, что все сделано вручную. Ни малейшего мусора.
И если это АГС, то почему выпавшие страницы успешно добавляются в адурилку?
"Адрес успешно добавлен. По мере обхода робота он будет проиндексирован и станет доступным для поиска."
Подскажите пути выхода? Менять урлы и еще тщательнее проверять текст на плотность слов и уникальность - поможет? как думаете?
предложил бы перенести сайт на новый домен
предложил бы перенести сайт на новый домен
Вариант - недопустимый. Слишком много времени и сил потрачено на этот домен.
В том-то и дело, что все сделано вручную. Ни малейшего мусора.
И если это АГС, то почему выпавшие страницы успешно добавляются в адурилку?
"Адрес успешно добавлен. По мере обхода робота он будет проиндексирован и станет доступным для поиска."
Подскажите пути выхода? Менять урлы и еще тщательнее проверять текст на плотность слов и уникальность - поможет? как думаете?
АГС - это не бан, потому и добавляется.
Выход один, который подсказал Яндекс - новые тексты, осмысленные и читаемые. А старые переработать, снизить плотность ключевиков и сделать более воспринимаемыми.