- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
богоносец, то что пс (гоша в частности) понимают что находиться в подгружаемых файлах это точно, вопрос только какой робот это понимает и как это влияет на ранжирование. в поиске подгружаемый контент не ищется, но на превью он выделяется. мне кажется что с горизонтальными связями между роботами есть большие проблемы связанные или с отсутствием этих связей или с отсутствием мощностей для обработки данных
Или преобразуйте span в ccылку по mouseover.
есть одна проблема, если стоит метрика или аналитикс, то пс получит данные элементе на котором произошёл клик :)
пс (гоша в частности) понимают что находиться в подгружаемых файлах это точно, вопрос только какой робот это понимает и как это влияет на ранжирование. в поиске подгружаемый контент не ищется
Поскольку Миныч называл Поисковые системы ранжирующими, то выходит так:
не ищется == не влияет на ранжирование :)
Ну понимает рисовалка превьюшки JS... но если и ранжировать будут по всему явно закрытому в robots.txt, то ничего лучше в выдаче не станет. Мета-дескрипшн тоже показывается, но не ищется.
не ищется == не влияет на ранжирование
а как же тогда пф - он то же вроде не ищется, но все говорят что влияет? :)
Из-за этой мути ранжирующие системы поисковыми не стали!
Ayavryk, не работает ваш пример.
http://jsfiddle.net/5zF7D/1/ !! jquery.1.9
http://jsfiddle.net/5zF7D/2/ - !! jquery < 1.9
если стоит метрика или аналитикс
Ну тогда вообще теряется всякий смысл игры в прятки с ботами. И вообще отпадают все вопросы.
Поскольку Миныч называл.
Миныч конечно голова, но Matt Cutts три года назад однозначно пообещал, что если будет нужно, они будут учитывать JS-ссылки в ccылочном ранжировании. С Robots.txt тоже не просто. Если страница на которой отображается закрытый контент сама не закрыта от индексации, то логично было бы все ее содержимое пихать в поиск или по крайней мере учитывать, что на 1К оргиниального контента приходится 20К неоригинального и такие страницы можно клеить. И я боюсь как раз этого.
Сегодня этого нет, а что будет завтра никто не знает.
Из-за этой мути ранжирующие системы поисковыми не стали!
если раньше пс горевали о том что пользователи вводят очень короткие запросы и поэтому возникали проблемы, то теперь они решили давать ответе по 2-3 буквам
/ru/news/15184
Ну тогда вообще теряется всякий смысл игры в прятки с ботами.
как раз нет, я выше приводил карты кликов и ссылок :)
С Robots.txt тоже не просто. Если страница на которой отображается закрытый контент сама не закрыта от индексации, то логично было бы все ее содержимое пихать в поиск или по крайней мере учитывать, что на 1К оргиниального контента приходится 20К неоригинального и такие страницы можно клеить.
тут ещё одна проблема есть - внешнее ссылочное, его достаточно что бы закрытая страница оказалась в поиске :)
Matt Cutts три года назад однозначно пообещал, что если будет нужно, они будут учитывать JS-ссылки в ccылочном ранжировании
Так заспамят JS-ссылками...
Если страница на которой отображается закрытый контент сама не закрыта от индексации, то логично было бы все ее содержимое пихать в поиск
Чем дальше ПС откладывали учёт JS и пр. так и не ставшее популярным xslt, тем больше они найдут мусора при включении этого всего в ранжирование.
Если среди разработчиков ПС разумные остались, то даже при включении (по умолчанию) этого всего... оставили бы боту возможность не-учёта результата JS/XSL при явном указании в роботсе.
Хотя все это больше похоже на гадания по кофейной гуще, потому что совершенно непонятно как именно Google исполняет JS. Если у себя- это одно, до CSS он еще не скоро доберется. Но если использует броузеры юзеров - это несколько другое, но это имхо паранойей.
Ппц )) А Вы попробуйте догадаться с одного раза как можно "исполнять JS" ))) Вы серьезно предполагаете, что Ваш браузер это чудо сделанное инопланетянами и совершенно недоступное простым смертным ПС? 😂
Все ПС при необходимости интерпретируют код так же, как это делают браузеры. С учетом всех популярных технологий типа flash или silverlight. И получают контент каким видят его пользователи.
Однако не стоит особо преувеличивать значимость подобных "феноменальных возможностей" ПС. Их главная цель - индексация - получить доступ по всем возможным путям. Чего Вы там скрываете через JS или CSS их меньше всего волнует.
---------- Добавлено 09.04.2013 в 15:17 ----------
Так заспамят JS-ссылками...
Чем дальше ПС откладывали учёт JS и пр. так и не ставшее популярным xslt, тем больше они найдут мусора при включении этого всего в ранжирование.
Если среди разработчиков ПС разумные остались, то даже при включении (по умолчанию) этого всего... оставили бы боту возможность не-учёта результата JS/XSL при явном указании в роботсе.
Какой мусор, Вы о чем? Есть контент, каким его выдает браузер пользователю. Именно он и войдет в индекс.
Не делается и вряд ли когда-нибудь сделается это по двум основным причинам.
Во-первых этот контент очень динамичный - может полностью измениться от малейшего движения мыши. И так как робот не может разумно двигать мышью в зависимости от того, что на экране, то и классифицировать такой контент сложно: что в результатах поиска выводить, "зайдите сюда и переместите мышь на 345х1200" что ли? )))
Во-вторых это очень дорого в плане как ресурсов, так и времени. Если статичный контент в виде ответа сервера имеет точную временную границу в виде получения результата, то динамичный контент это когда сервер отдает своего рода инструкцию по дальнейшим действиям и не имеет точной границы.
Поведенческое ранжирование и отделение интерфейса пользователя от маркетинга и продвижения ("вот это - для ПС, а это - для пользователя") - вот разумные пути развития ПС. Отсюда можно предположить что ПС будут не только смягчать санкции за всякого рода "клоакинг", но и приветствовать это.
как раз нет, я выше приводил карты кликов и ссылок :)
То что показывают нам и то что знают про нас - это две большие разницы. И уже совсем другое дело - то как все это учитывается.
оставили бы боту возможность не-учёта результата JS/XSL при явном указании в роботсе.
Старая песня о главном. Яндексу/Googl'у лучше знать что нужно учитывать, что не нужно. На этом их бизнес держится.
Вы серьезно предполагаете, что Ваш браузер это чудо сделанное инопланетянами.
А юзеров тоже в Google делают?
Не было бы вопросов, если бы речь шла о подгрузке AJAX по onload, а вот откуда боты понимают что все что может быть кликнуто (или mouseover'нуто или ...) должно быть кликнуто, и ссылки которые появятся после этого (как в примерах выше) должны быть проиндексированы, я не знаю. А вы?
Не делается и вряд ли когда-нибудь сделается это по двум основным причинам..
Вот тут вы не вполне правы. Яндекс давно ввел noindex. Хотя не факт, что этот контент никак не учитывается.