- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
И у меня пару вопрос :
- куда на вордпресе залить файл robots.txt? А то в "диагностика сайта" что то пишут что нет его, хотя я его и добавил в папку основную.
сергей-034, а это тут причём?:)
В корень нужно лить.
сергей-034, а это тут причём?
В корень нужно лить.
Да при том же причем и смена персональных данных 😂
В какой корень? В ту папку которая на картинке?
сергей-034, да, в ту папку которая на картинке.
ultraZzz..., так я туда и заливаю, но что то бот адсенсовский не видит его 🤪
В разделе "Диагностика сайта" приводятся "Заблокированные URL". При этом в причинах блокировки везде стоит "файл robots.txt"
Например, среди таких страниц есть http://hghltd.yandex.net/ (подсветка содержимого страниц сайта, некоторые посетители так смотрят) - это понятно, непонятно, какое отношение мой robots.txt имеет к заблокированной странице Яндекса.
Еще один заблокированный URL - http://translate.googleusercontent.com - переводчик Google, видимо, иностранцы заходили смотрели. Вопрос аналогичный что и выше.
Но это ладно. Больше всего у меня вызывает вопрос блокировки содержимого, которое выдают cgi-скрипты. У меня в robots.txt действительно заблокировано для роботов поисковых систем чтение старых сообщений форума (которые выдаются через cgi-скрипты, закрыта полностью одна из cgi-папок и скрипты оттуда). При этом текущие сообщения доступны как через html (у них есть короткие html-адреса для удобства пользователей), также их их можно посмотреть через адрес, где есть cgi (не через html-адреса), но такие адреса более длинные.
А вопрос тут такой, начисляет ли Гугл бабло за клики на таких заблокированных страницах? А то реклама в код скриптов включена, на всех страницах форума, в т.ч. и на старых она активно крутится. Но если за это $ не капает, то смысла ее держать там нет, лучше тогда бегуна туда повесить или директ?
Independence добавил 14.02.2010 в 08:41
Повнимательне посмотрел, что выдает Adsense на этих CGI-адресах (типа mysite.com/cgi-bin/forum.cgi?page=2 и пр.). Везде он показывает или социальную рекламу, или что-то невразумительное на английском языке.
Можно ли как-то сделать и как, чтобы эти страницы не попали в индекс поисковой системы Google, но при этом, чтобы Adsense их нормально сканировал и там бы показывалась нормальная реклама.
У того же Бегуна нет поиска как у Google, у них там просто заключаешь текст страницы между index типа <index>тут мой замечательный текст</index> и он нормально релевантные объявления показывает на любой странице. Хотелось бы нечто подобное сделать и для Adsense, чтобы показ рекламных объявлений не зависел от того доступна страница для робота поисковой системы или нет.
непонятно, какое отношение мой robots.txt имеет к заблокированной странице Яндекса.
Имеется ввиду не Ваш robots.txt а заблокированной страницы.
А вопрос тут такой, начисляет ли Гугл бабло за клики на таких заблокированных страницах?
Не начисляет.
Можно ли как-то сделать и как, чтобы эти страницы не попали в индекс поисковой системы Google, но при этом, чтобы Adsense их нормально сканировал и там бы показывалась нормальная реклама.
Разрешите доступ роботу Adsense.
User-agent: *
Disallow: /
User-agent: MediaPartners-Google
Allow: /
http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=156449
megachip, а какой вариант лучше:
User-agent: MediaPartners-Google
Allow: /
или
User-agent: MediaPartners-Google
Allow: /cgi-bin/
?
megachip, а какой вариант лучше:
User-agent: MediaPartners-Google
Allow: /
Думаю первый вариант.
У меня в robots.txt действительно заблокировано для роботов поисковых систем чтение старых сообщений форума (которые выдаются через cgi-скрипты, закрыта полностью одна из cgi-папок и скрипты оттуда). При этом текущие сообщения доступны как через html (у них есть короткие html-адреса для удобства пользователей), также их их можно посмотреть через адрес, где есть cgi (не через html-адреса), но такие адреса более длинные.
Вопрос такой имею... А зачем было блокировать роботам поисковых систем чтение старых сообщений форума?