- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Он же представляется... Не думаю, что индексировать ссылки будет какой-то секретный бот.
Ну, если Вы так уверены, что гугл - истинный джентльмен, то причем тут .htaccess ? Пропишите ему соответствующее правило в robots.txt да и дело с концом :)
А я не знаю, читает ли он файл скрипта, или выполняет, когда читает страницу. Если читает на странице, закрытие скрипта в robots.txt не поможет. Идея с .htaccess - чтобы он не смог загрузить скрипт, когда читает страницу. И прочитать сам файл скрипта, конечно, не сможет.
Если читает на странице, закрытие скрипта в robots.txt не поможет.
Эээ... Вот этот тезис подробнее развернуть можно?
Вряд ли Гугл (и не только Гугл) будет тратить ОЧЕНЬ большое бабло, чтобы устанавливать суперкомпьютеры и разбирать джаваскрипты на сайтах. И выдачу аджакса скачивать и анализировать. Думаю, что в ближайшие пиццот лет этого не будет. Ну не пиццот, так лет тридцать - точно. :)
Ожидать следует, думаю, другого: Гугл будет грубо анализировать яваскрипт на предмет каких-то типичных паттернов, а уже при наличии подозрений - насылать тяжелую артиллерию в виде бота, реально выполняющего яваскрипт. И, возможно, ожидать этого следует быстрее, чем через 30 лет.
Эээ... Вот этот тезис подробнее развернуть можно?
Если он выполняет скрипт, и видит страницу, как браузер, то ссылка будет проиндексирована как часть самой страницы. Страница же не запрещена для индексирования!
Самое интересное: если бы это было не так, было бы достаточно закрыть скрипт в robots.txt - Гугл бы скрипт не загрузил, и не увидел бы, что там вообще есть ссылка.
было бы достаточно закрыть скрипт в robots.txt - Гугл бы скрипт не загрузил, и не увидел бы, что там вообще есть ссылка.
Я Вам об этом и говорю - если закрыть скрипт в в robots.txt, то честный гугл не должен его читать. Соответственно, он не может его выполнить. А если он его все таки выполняет (предварительно прочитав, несмотря на запрет в robots.txt), то значит он все таки поступает не совсем по джельтнменски :)
Тогда почему Вы думаете, что он будет поступать по джельтменски в плане представления своего бота в сценарии с .htaccess?
"Тут помню, тут не помню..." (C) Джельтнмены удачи.
Потому, что есть ещё вариант: он индексирует страницу в том виде, в котором её видит пользователь. То, что файл со скриптом закрыт - отдельная тема: сам файл .JS он не будет индексировать. Всё будет соблюдено!
Пыталась найти текст, который выводится JS - не находит. Читает ли закрытый в robots.txt файл скрипта - не знаю.