- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые форумчане, прошу помочь мне в такой ситуации, избавлялись от дублей и ненужних страниц на сайте, а в итоге улетел весь сайт
Вот сейчас поправили файл robots написал платонам, но всеже есть сомнения, прошу взглянуть
http://otigolki.ru/robots.txt
Уважаемые форумчане, прошу помочь мне в такой ситуации, избавлялись от дублей и ненужних страниц на сайте, а в итоге улетел весь сайт
Вот сейчас поправили файл robots написал платонам, но всеже есть сомнения, прошу взглянуть
http://otigolki.ru/robots.txt
В вебмастере Яндекса есть же инструмент для проверки - почекай нужные тебе страницы, пропускает ли твой роботс их.
Да спасибо а как же решить данную проблему если мне нужно запретить все адреса которые содержат #!prettyPhoto[iframes]
яндекс воспринимает конструкцию *#!prettyPhoto[iframes]* как запрет для всего сайта
---------- Добавлено 03.07.2014 в 08:35 ----------
Вот сайт у которого все ок с яндексом а в роботе похожие конструкции
http://magok.ru/robots.txt
Почему бы не написать саппорту яши? Что касается роботс они всегда дают развернутый ответ.
В конструкции:
Disallow: *#!prettyPhoto[iframes]*
вы не учли что "#" это комментарий и роботы видят эту директиву как:
Disallow: *
Соответственно вы закрыли весь сайт к индексу.
Я бы сделал так:
Disallow: *prettyPhoto
или использовал Clean-param - надо смотреть на сайт, где работает.
так сайт теперь открыт, но страницы типа http://beer.otigolki.ru/podcat/529/applikacii_detskie_termokleevye#!prettyPhoto[iframes]/0/
доступны, каким образом их закрыть
Disallow: *prettyPhoto не помогает