- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В общем там было две хитрости:
1. Чтобы выкинуть страницы из индекса из нельзя закрывать в роботс - это просто из заморозит навсегда.
Надо в начале проставить meta=noindex, и когда они из индекса выпадут - только тогда закрывать в роботс. Ну или по одному удалять через webmaster
2. Чтобы не плодить лишних ссылок в различных сортировках и тд и тп - просто выносим такие страницы на www2.mysite.ru, а его блокируем в robots.
Дешево и сердито. Canonical в этом плане хуже тем что роботу в любом случае придется его в начале просканировать, а только потом выкинуть. А лимиты на сканирование жесткие.
Ну вот... заинтриговали... Теперь придется мучаться, но смотреть 🙅
Специально просмотрел, 26 минута, но не тратьте время. Там говорят что если изначально закрыть в robots.txt страницу или директорию, то Гугл ее не посетит, это ложь, не правда, гон, большой обман, выбирайте сами что вам больше нравится. Недавно был запущен региональный интернет-магазин. Изначально на домене висела заглушка, с одной страницей, домен новенький, без истории. Сайт делался локально, когда сайт был доделан, был выложен на хостинг, robots был изначально подготовлен и выложен вместе с сайтом, Гугл сожрал все страницы, все что было закрыто в robots, и сам robots, попало в дополнительный индекс. Яндекс с первого апдейта выкинул все страницы закрытые в robots.txt, и поставил в индекс только разрешенные. Так что если вам есть чем заняться, можете не смотреть видео, ничего нового и полезного там нет, одна ложь. Все эти видео-встречи ни о чем.
iSeller, повторюсь для Вас лично и для тех кто так считает
http://webimho.ru/topic/7817/#entry138086
В общем там было две хитрости:
1. Чтобы выкинуть страницы из индекса из нельзя закрывать в роботс - это просто из заморозит навсегда.
Надо в начале проставить meta=noindex, и когда они из индекса выпадут - только тогда закрывать в роботс. Ну или по одному удалять через webmaster
2. Чтобы не плодить лишних ссылок в различных сортировках и тд и тп - просто выносим такие страницы на www2.mysite.ru, а его блокируем в robots.
Дешево и сердито. Canonical в этом плане хуже тем что роботу в любом случае придется его в начале просканировать, а только потом выкинуть. А лимиты на сканирование жесткие.
Вижу, подсказали 2 способа побороть их же баги. Просто выкинуть из индекса то, что запрещено ботам индексировать видимо кац не позволяет. Ну что ж, спасибо.
... и для тех кто так считает
У Вас, эвфемистично выражаясь, практического опыта маловато ;)
Лично я с проблемой наплевательского отношения к robots.txt, равно как и к тегу "noindex" сталкивался как минимум раз пять. Последний раз совсем недавно.
Так что не надо так ръяно утверждать обратное. Может получиться неудобно (с).
У Вас, эвфемистично выражаясь, практического опыта маловато ;)
Лично я с проблемой наплевательского отношения к robots.txt, равно как и к тегу "noindex" сталкивался как минимум раз пять. Последний раз совсем недавно.
Так что не надо так ръяно утверждать обратное. Может получиться неудобно (с).
Реагируйте спокойно на человека, он думает что лизание у Дудла дает + по позициям. Спорить с ним нет смысла. Все что делает Дудл, в его понимании правильно. 😂
---------- Добавлено 14.02.2014 в 19:49 ----------
iSeller, повторюсь для Вас лично и для тех кто так считает
http://webimho.ru/topic/7817/#entry138086
Да спасибо, я вас давно уже понял, не надо ходить хвостом по форумам и пытаться меня убедить, что красное это вовсе не красное, а зеленое.
Так что не надо так ръяно утверждать обратное. Может получиться неудобно (с).
Не смешите мои кеды. Я конкретный пример указал выше по ссылке. И Вы опять про то как это плохо работает? И причем тут мой опыт?
---------- Добавлено 14.02.2014 в 21:59 ----------
iSeller, где хочу там и хожу. А Ваши пустые слова уже как пластинка заевшая.
---------- Добавлено 14.02.2014 в 22:02 ----------
что запрещено ботам индексировать
на встрече, Липатцев четко ответил, что файл роботс управляет сканированием, но никак не индексированием. Где написано, что он управляет индексированием?
easywind
Собственного опыта 0, а советы даете как профессионал в СЕО. Может хватит верить в то что вы приносите пользу и чего то понимаете в продвижении. 😂 Покажите хоть один свой сайт в ТОП, который сделан по рекомендациям Дудла. Я хоть имею опыт по своему сайту, но не лезу с глупыми советами, типа со знанием дела.
iSeller, переходим на личности? Аргументы кончились?
Я вижу какой у Вас опыт. С роботс особенно :)
iSeller, переходим на личности? Аргументы кончились?
Я вижу какой у Вас опыт. С роботс особенно :)
Опыт достаточный, что бы не слушать бред вроде вашего. Приведите пример удачно продвинутого сайта, вами лично и следующего правилам Дудла.