- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В адсенсе выводит: Роботу AdSense не удалось просканировать вашу страницу. Иногда в таких случаях система показывает нерелевантные объявления, что приводит к уменьшению CTR. Но чаще всего на странице вообще не отображается никакая реклама, что влечет за собой понижение дохода и заполняемости блоков.
Права подтвердил. реклама появилась, но нерелевантна.
Также в панеле адсенс добавил доступ роботу на мой сайт: написано статус-выполняется сканирование, но когда нажимаю на "изменить" то там по сути должно при нажатии на протестировать доступ внизу страница моя должна открыться в итоге пустота.
Тем не менее выводит в ошибках: Роботу AdSense не удалось просканировать вашу страницу.
Что сделать подскажите?
в роботс.тхт добавьте сверху :
User-agent: Mediapartners-Google
Disallow:
и подождите пару дней, и всё будет ок.
я это тоже читал, только там странная фраза была написана, это делается с целью чтобы только 1 робот мог работать, и я что то подумал что для яндекса закроется доступ...не?
Вот к примеру верняя часть кода:
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
После изменения должно стать так?
User-agent: Mediapartners-Google
Disallow:
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
я это тоже читал, только там странная фраза была написана, это делается с целью чтобы только 1 робот мог работать, и я что то подумал что для яндекса закроется доступ...не?
нет данные строки будет читать только робот адсенса, на других роботов не повлияет никак
После изменения должно стать так?
да
точнее было написано вот так:
Если вы хотите предоставить нашему роботу доступ к своим страницам, то это можно сделать, не давая разрешения на индексацию другим роботам. Просто добавьте следующие две строки в начало файла robots.txt:
User-agent: Mediapartners-Google
Disallow:
Получается остальные роботы заблокируются?
---------- Добавлено 09.01.2014 в 18:06 ----------
User-agent: Mediapartners-Google
Disallow:
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Так и осталять..?
Все спасибо огромное)))
---------- Добавлено 09.01.2014 в 18:13 ----------
а что насчёт:
того что при нажатии в "Данные доступа для робота AdSense" кнопку \протестировать доступ\ там ниже должна вывестись страница видимо, а там пусто.....