- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Пофиг, лендинг делается не для поискового трафика. ☝
А для чего он делается? у меня там будут пару статей на нем уникальны.
деньги на ветер
почему на ветер? а как его тогда продвигать и чем? какими инструментами?
Контекст, тизеры, баннеры и т.п.
Лендинг - посадочная площадка для коммерческого трафа.
Друзья, подскажите как правильно убрать из индекса сайты на субдомене и весь сайт?
Просто в корень положить robots.txt
c такими параметрами:
User-agent: *
Disallow: /
или для субдоменов требуется другой параметр?
Ответ лучше в личку.
Заранее благодарен
загрузила сегодня на Гугл вебмастер карту своего сайта, а Гугл возьми да и выдай:
Файл Sitemap содержит URL, доступ к которым заблокирован в файле robots.txt.
http://site.com/category-sitemap.xml
http://site.com/page-sitemap.xml
http://site.com/post-sitemap.xml
То есть получается что заблокирован доступ ко ВСЕМУ сайту?!
А вот часть этого роботса:
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: */feed
Disallow: /trackback
Disallow: */trackback
Disallow: /comments
Disallow: */comments
Disallow: /wp-comments
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /cgi-bin
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /wp-content/cache
Disallow: /wp-admin/
Disallow: /wp-includes/
Я, конечно, дилетант, но как не смотрю, не могу понять - где тут ошибка.
То есть получается что заблокирован доступ ко ВСЕМУ сайту?!
Нет, тоолько к соотв.сайтмапам (если это сайтмапы, но найти все страницы сайта можно и по ссылкам). Типа боту к перечисленным урлам обращаться запрещено (какими-то правилами в роботсе).
ps можно писать Disallow: /robots.txt # можно выкинуть из индекса robots.txt
но типа нельзя Disallow: /префикс-вашего-сайтмапа # не получается выкинуть из индекса Гугля сайтмап
Здравствуйте ) столкнулся с такой проблемой , как закрыть от индексации одной командой картинки с галерей, Пример адреса: http://Сайт/content/52287c406a8429jpg#overlay-context=content/muzykanty-na-svadbu ? Когда картинки были собраны в одну директорию они закрывались командой Disallow: /ru/media-gallery/, в даном примере подойдет Disallow: *.jpg ?
С 19 марта у меня перестали индексироваться Яндексом новые статьи на сайте http://iddeas.ru. Яндекс сообщает, что проблема в файле robots. Но никаких проблем я не нашел. В чем же дело?
Disallow: /category/
Будь внимательнее, проверяй роботс http://webmaster.yandex.ru/robots.xml
Как правильно закрыть в роботс страницы типа http://xxxxx.ru/catalog/2446/5764/?print=y
Писал уже так:
Disallow: /?print*
Disallow: /?print=*
Disallow: /*print*
Disallow: /?print=y
Ничего не помогает, все равно куча страниц в поиске.
Disallow: /*print=
Но в гугле могут оставаться в индексе, если на них есть ссылки