- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
1)Индексация всех страниц до какого-то уровня примерно на неделю. Видимо для проверки работоспособности самого сайта.
2)Полное обнуление результатов.
3)Повторная постепенная индексация до некоего уровня вложенности с проверкой на тему сапы-шмапы, неуника и целей сайта вообще. Ежели малейшие подозрения в непушистости - либо фильтр в будущем, либо полный вынос и запрет к индексации.
И только после этого постепенная окончательная индексация, с загрузкой всех страниц в основную базу.
Обсудим?
Вы правы.
Это уже с октября такая фиша.
Новый сайт может даже сразу попасть в ТОП, на пару дней, потом "улетает". И постепенно сайт может вернуться на свои "законные" места.
Появление сайта в ТОПЕ (было неоднократно), говорит, что с сайтом все ОК.
А дальше, работать надо.
1)Индексация всех страниц до какого-то уровня примерно на неделю. Видимо для проверки работоспособности самого сайта.
2)Полное обнуление результатов.
3)Повторная постепенная индексация до некоего уровня вложенности с проверкой на тему сапы-шмапы, неуника и целей сайта вообще. Ежели малейшие подозрения в непушистости - либо фильтр в будущем, либо полный вынос и запрет к индексации.
И только после этого постепенная окончательная индексация, с загрузкой всех страниц в основную базу.
Обсудим?
Только в ширь замечал...
1-й уровень
затем 2-й уровень
после 3-й уровень
А дальше что осталось...
С уникальным контентом ссылок вообще не надо...
Откуда эта информация? у меня на этапе обнуления повязали 20 сайтов (одиннаковые whois-данные + коды сапы).
1) Индексация только морды / морды=адрес сайта, аля title=site.ru
2) Возможно (!) обнуление
3) Индексация морды + нескольких случайных внутренних страниц
4) Постепенная индексация всего сайта...
mihan добавил 05.12.2008 в 11:17
diafan, про уник-неуник поспорю...
Согласен абсолютно!
....
4)Если доля неуника больше уника (вплоть до 51%) - сайт вылетает из индекса. Платон присылает широко известное письмо (наши алгоритмы определили, что бла-бла-бла, развивайте сайт - автоматически появится).
Если уника больше неуника - сайт остается в индексе, со всеми вытекающими добрыми последствиями.
Все это дело наблюдалось тютька в тютьку на 30-40 новых сайтах за последние несколько месяцев.
....
более того, вылет из индекса по подобным причинам - вещь распространенная даже для старых сайтов, которых планомерно подтачивают конкуренты. Методы просты как валенок - воровать не только контент на регулярной основе, но и структуру сайта и, вдобавок, активно прокачивать ссылками.
к сожалению, велика вероятность, что из за подобных действий Яндекс исключит сайт. Я встречался с такими случаями несколько раз, однако еще не встречал, чтобы сайты возвращались назад в индекс.
1)...для проверки работоспособности...
2)...обнуление результатов...
3)...постепенная индексация до некоего уровня вложенности с проверкой на тему сапы-шмапы, неуника и целей сайта вообще. Ежели малейшие подозрения в непушистости - либо фильтр в будущем...
Как вы думаете, цель Яндекса - загнобить вебмастеров, или же предоставить пользователю поиск приличного качества по релевантным и содержательным страницам?
У меня вот, к примеру, складывается такое впечатление, что фильтры применяются по совокупности текущих характеристик сайта (количество ссылок, уникальность контента и т.д. и т.п.), а не определяются кармой сайта, как вы хотите представить.
А как и что происходит с новым сайтом, по-моему, пофиг совершенно, исключая некие особые случаи.
Есть три сайта, контент 99% неуникальный (на морде рерайт), клонов только по яндексу штук 20
Обвешаны сапой.
100% страниц в индексе. Тиц и пыр вялотекуще растут.
Влет в индекс - 2 недели после рождения.
Что я делаю не так?
Есть три сайта, контент 99% неуникальный (на морде рерайт), клонов только по яндексу штук 20
Обвешаны сапой.
100% страниц в индексе. Тиц и пыр вялотекуще растут.
Влет в индекс - 2 недели после рождения.
Что я делаю не так?
Как долго вы наблюдаете такие аномалии)?
Как долго вы наблюдаете такие аномалии)?
По первому сайту года два
По второму и третьему с сентября.
Не у меня ни один сайт не вылетал после начала индексации. Обычно за 1-2 апа индексируется на 100%. Бывает такое что главную сожрал и завис не несколько месяцев, но это сайт был плохой. Так что схема не правильная. Можно голосовалку прикрепить что б понять у кого так у кого нет.