samimages

samimages
Рейтинг
427
Регистрация
31.05.2009

Ах вот оно чё!

У меня в статистике такая фигня висит уже месяц, т.е. кто-то ежедневно идет на одну и ту же страницу со старой вкладки и каждый раз читает это предупреждение?.. странно.

А если результаты Яндекса в закладки добавить будет работать?

Седня попробую...

Если впадать в полную паранойю, то лучше всего отдавать 404)))

Ибо у меня есть подозрение, что Яндекс к примеру один фиг собирает все тексты с сайта обходя robots

Как обходит?

В большинстве случаев в robots-е Яндекс описывают отдельно открывая страницы для архиватора, например

Или, что еще лучше для любого робота, кроме Яндекса...

Зачем ему это надо?

А как он узнает, что сайт не достаточно хорош для выдачи? Или, например держит его в 30-ке без видимых причин...

Но это так. В порядке берда... Подумать

samimages добавил 20.03.2011 в 10:35

infin1ty:
Если это одна страничка из, допустим, 30 уникальных в индексе, то добавляйте её и не сомневайтесь. Яндекс копипаст с хорошей перемешкой уником хавает на ура!
(небезосновательно, есть 3 таких сайта)

Эт да))))))

noindex и nofollow - при этом текст попадает в базу Яндекса, а ТС борется за чистоту "совести" сайта

kbv79:
http://webmaster.yandex.ru/delurl.xml

Быстрее пары апов все равно не получится.

Может у меня частный случай, но в два ни разу не укладывался и это при:

404, удалить урл, robots.txt

один фиг месяц / полтора в выдаче... только позиции падают... потом одним махом исчезает все

samimages добавил 20.03.2011 в 10:26

DominikanaUs:
Слышал, есть какой-то способо через .htaccess , но когда пробовал - вообще пропадал доступ к сайту извне :( Видимо, придется ждать апа.

Какбы сказать... нельзя командным файлом своего сервера, воздействовать на содержимое сторонней базы данных.

Выдача - то что Яндекс "скачал" себе на комп и удалить может только Яндекс.

Все остальные методы служат либо для предотвращения "скачивания" либо для указания на то, что документ более не существует.

Второй случай занимает время.

Действительно запрет индексации самый простой и эффективный способ, так что noindex и nofollow вам в помощь!

robots.txt ему в помощь

ТС, если это необходимый людям текст, но при этом он не является каким либо докуметом, а просто скажем какое либо интервью

Закройте его от индексации и не парьтесь. Так надежней всего будет. Хотя при наличии одной не уникальной страницы, тем более отдельной... маловероятно, что будут какие-то негативные моменты для ключей не относящихся к конкретному тексту.

🍿 - подписался

Если подсказка полна, то нафига нужна ссылка? Тем более это отвлекает от материала...

замените обработку на <span title="">

и по линковке вопросы отпадут и для людей ничего не изменится

на днях тоже ввалили пенделя.

Я проще к этому отношусь. Суть такая. Если я как владелец сайта предлагаю им место на своей площадке, для увеличения их оборота, то по сути это их проблема, если они отказываются...

Это справедливо в разрезе, если сайт не точится под контекст специально... в проитвном случае можно и бегуна поставить...

Я предложил площадку под прямые клики. т.е. сайт помогает выбрать "ОЧЕНЬ НЕОБХОДИМЫЙ" товар (просто позырить не ходят специфика такая) яндекс мог бы помочь его купить, но...

С другой стороны это к лучшему ибо у меня, были сомнения по поводу РСЯ относительно их политики показа объявлений и фильтрации самих объявлений... я не очень хочу, чтобы даже в рамках РСЯ на моем сайте показывались нетематические объявления.

А у них это норма. В том плане, что если человек утром искал электрокалоуборщик, то потом еще долгое время, в том числе и на серче, например, в объявлениях будет показываться эта тематика...

пока браузер не вычистишь, но кто это делает?..

Страниц в поиске 1
Загружено роботом 1
Исключено роботом 0

Это не бан, это проблема на вашей стороне.

Бан это когда

Страниц в поиске 1
Загружено роботом 100000
Исключено роботом 0

В процессе жизни сайта изменяется только количестов: Страниц в поиске 1 //в меньшую сторону

Все остальное зависит либо от настроек движка либо от всякого рода командных файлов... типа robots.txt .htaccess

alekseycop:
Сайт упал из за того что робот яндекса стал перепутал страницы и стал в выдачу выдавать без www
а упал в выдаче по иной причине

я не ясновидящий, я ответил на ваш вопрос.

за шутку пардон :)

Всего: 6227