- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите как закрыть данные, погружаемые в iframe c другого сайта, от индексации в гугле? Как я понимаю, при таком варианте не получится напрямую закрыть данные в своем robots просто прописав в dissalow чужой домен? Верно?
Ну ладно, если нельзя, тогда следующий вариант: создать страничку на сайте, на которую запихать редирект на сторонний сайт, данную страницу запретить к индексации в роботс, и её же запихать в iframe. Верно мыслю?
Установить фрейм через js.
Хрен редьки не слаще...как я понимаю все равно придется создавать внешний js и закрывать его от индексации в robots, иначе гугл все проиндексирует
/ru/forum/692423
http://devaka.ru/articles/complex-javascript-for-google
и закрывать его от индексации в robots
А вот это самое неэффективное для гугла,
он по собственному утверждению (посмотрите хелпы гугла по поводу robots), в некоторых случаях, игнорирует robots (например если ссылка найдена на стороннем ресурсе).
Можно конечно для этого внешнего js проверять HTTP_USER_AGENT (чтоб не отдать это js гуглу), но никто не запрещает представиться ему "Вася Пупкин" и получить содержимое Вашего js.
/ru/forum/676966
/ru/forum/676966
В примере, в приведенной теме, JS аналогично зарывают от индексации в роботсе
А вот это самое неэффективное для гугла,
он по собственному утверждению (посмотрите хелпы гугла по поводу robots), в некоторых случаях, игнорирует robots (например если ссылка найдена на стороннем ресурсе)...
ссылку в студию, где прямо говориться, что закрытый в роботсе файл может попасть в индекс гугла. не просто проанализирован, а именно помещён в основной индекс несмотря на запрет в роботс. то что, для проверки трастовости любой поисковик жрёт всё доступное не взирая на любые запреты - ежу понятно, но это совершенно другое дело...
ссылку в студию, где прямо говориться, что закрытый в роботсе файл может попасть в индекс гугла. не просто проанализирован, а именно помещён в основной индекс несмотря на запрет в роботс.
Пожалуйста:
Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс.
Пожалуйста:
Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс.
и что здесь написано? с русского на русский перевести надо? пожалуйста :
Гугл не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt т. е. страницы не участвуют в распределении веса, не влияют на ранжирование, не включаются в собственный индекс сайта.
и только урлы закрытых страницы могут оказаться в выдаче гугула если будут найдены ссылки на них (с нужным анкором) со сторонних ресурсов. но это есть результат индексирования этого самых "сторонних ресурсов", а не закрытых страниц вашего сайта.
вы чего хотели? что бы ваш роботс влиял на индексирование чужих сайтов?
так что не вводите людей в заблуждение...