- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Скажу честна. Не из-за ссылок
А из-за чего же?
Телепаты пока ещё не проснулись... тяжёлые у них дни...
А для простых людей, покажите "пациента".
Моего пациента гляньте... ))
http://yarportal.ru
вместо 50 000 страниц (одни темы, без профилей и прочего мусора)....
44 странички... так-то пишет 500 или около того...
если перейти на 5 страницу яндекса... то 44... или около того....
с конца октября такое...
ответ такой же как у топикстартера... ))
было время.. всё вернулось на 12 часов, потом снова...
Моего пациента гляньте... ))
http://yarportal.ru
вместо 50 000 страниц (одни темы, без профилей и прочего мусора)....
44 странички...
Ну почему же.. .Сейчас 600 показывает...
А robots.txt почему такой?
==============
User-agent: *
Disallow: /index.php
Disallow: /index.html
Disallow: /?
===============
И сложилось такое впечатление, что Я склеил страницы третьих доменов: realty, xrummer, 468
Да и в индексе одна и та же страница находится в нескольких экземплярах... Имхо, следующий робот их склеивать опять будет...
Определение стилей Вам просто необходимо выносить во внешний файл...
И активней Вам надо использовать <noindex>
==============
User-agent: *
Disallow: /index.php
Disallow: /index.html
Disallow: /?
===============
Да просто взял, да и закрыл сайт от всех ботов, а теперь спрашивает почему его они не любят.
Моего пациента гляньте... ))
http://yarportal.ru
вместо 50 000 страниц (одни темы, без профилей и прочего мусора)....
44 странички... так-то пишет 500 или около того...
если перейти на 5 страницу яндекса... то 44... или около того....
с конца октября такое...
ответ такой же как у топикстартера... ))
было время.. всё вернулось на 12 часов, потом снова...
Та же картина. http://compin.ru. Такой же ответ от Платона. После удаления почти всех ссылок - на один день яндекс нашел аж 915 страниц! но уже на след. день снова 3. Подскажите, плиз, где искать причину?
Да просто взял, да и закрыл сайт от всех ботов, а теперь спрашивает почему его они не любят.
Вы бы сайт посмотрели прежде... основные пути по сайту.. прежде чем такое писать...
такой роботс уже года два.... он направлен на индексацию
http://yarportal.ru
http://yarportal.ru/topic....html
http://yarportal.ru/forum....html
http://yarportal.ru/cat....html
и всё.. больше никакого мусора...
всё было замечательно до поры, до времени
Ну почему же.. .Сейчас 600 показывает...
А robots.txt почему такой?
==============
User-agent: *
Disallow: /index.php
Disallow: /index.html
Disallow: /?
===============
И сложилось такое впечатление, что Я склеил страницы третьих доменов: realty, xrummer, 468
Да и в индексе одна и та же страница находится в нескольких экземплярах... Имхо, следующий робот их склеивать опять будет...
Определение стилей Вам просто необходимо выносить во внешний файл...
И активней Вам надо использовать <noindex>
что за хруммер? у меня не было никогда такого поддомена.... был года два назад... 468.yarportal.ru.... баннерная сеть графическая.... года два как нет ее... откуда ж это адрес вынырнул ))
>>>>>Определение стилей Вам просто необходимо выносить во внешний файл
это на что-то влияет?
>>>>>Определение стилей Вам просто необходимо выносить во внешний файл
это на что-то влияет?
На общий размер html странички..
У Вас много страничек весом за 100к...
А у бота может стоять ограничение на объем страничек... Да и вероятность потери данных при обработке ботом в этом случае увеличивается...
По крайней мере у меня есть такие ошибки бота в панели вебмастера..
Санкции сняты... 17 тыщ страниц опять в индексе...
Что было сделано:
1. Убраны продажные ссылки с головняка
2. Когда-то была линко-помойка, и при переносе сайта, она частично, но перенеслась... В общем ее удалил...
3. Файлецы с 1ps с обратками, тоже удалил...
4. Пересмотрел весь код, нашел закомментированные внешние ссылки - удалил...
5. Все внешние ссылки (баннеры, партнерки и .т.д.) поместил в ноидекс
Как результат, уже идет трафф.... Только позиция не возвращается в прежний топ... Но это другая песня...
Но СЧ и НЧ собираются успешно...
При всех данных можификациях из-за убранных "линкопомоек" упал тиц на 60 пунктов... Но мож не из-за них...
В общем делаю вывод следующий... Для выхода из данного фильтра необходима работа по внутренним факторам...
А вот чтобы его получить, в какой-то мере влияют и внешние (о внутренних не говорю - это и так ясно что влияют)...
Есть предположение, что борьба с сапой давно идет полным ходом.С каждым увиденным сайтом, у которого вылетели страницы из индекса и который работал с данной биржей, убеждаюсь в этом. Причем кажется, что палится это как раз по коду сапы,потому что видел сайты у которых в индексе оставались только главная,на которой также висел код сапы и страницы на которых не было данного кода,а остальной внутряк,содержащий саповский код в том числе и страницы на которых никогда не было ни одной внешней ссылки (только код) ушли в небытие.Формулировка данного выпадения от платона,что и ТС выложил в данном топике.Все выше сказанное ИМХО.
P.S.Были ли случаи у кого то при тотальном выпадении из индекса страниц, оставались в нем страницы содержащие код сапы и имеющие аналогичную формулировку от платона?