- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кто уже показал Google все свои ̶с̶к̶и̶л̶е̶т̶ы̶ ̶в̶ ̶ш̶к̶а̶ф̶у̶ css и js файлы?
Стало хуже или лучше?
Как выбирали какие файлы открывать? Или просто открыли все файлы подряд?
По теме новости:
/ru/news/19886
У меня всегда всё было открыто.
Если же нужно что-то скрыть, можно ведь по ip диапазонам гуглоботов отдавать контент без встроенного js, не?
Если же нужно что-то скрыть, можно ведь по ip диапазонам гуглоботов отдавать контент без встроенного js, не?
это называется клоакинг и за это легко могут наказать :)
У меня вот 15 css файлов и 9 js файлов google бот просит на типичной карточке товара... Открою их и что? Как бы проинспектировать что там лишнее, что там может объединить нужно... А то у меня ощущение, что лишняя нагрузка при 10000 посетителей в день уже будет ощутима как-то...
burunduk
Я знаю, но что, у гугла в рашке есть боты?
Dreamfall, доброжелателей точно хватает ;)
а по поводу ботов - их очень много
Кто уже показал Google все свои ̶с̶к̶и̶л̶е̶т̶ы̶ ̶в̶ ̶ш̶к̶а̶ф̶у̶ css и js файлы?
Стало хуже или лучше?
Как выбирали какие файлы открывать? Или просто открыли все файлы подряд?
По теме новости:
/ru/news/19886
У меня никогда не были закрыты эти файлы, но при этом даже в css у меня находятся тексты которые я специально прятал там от индексирования, и Гугл их до сих пор не индексирует! И javascript тоже. То есть он их сканирует, разумеется, периодически, но не индексирует.
Из простого определения качества юзабелити сайта Гуглом люди снова творят миф )
В основном этот момент касается качества отображения вашего контента для различных устройств, откроетесь Гуглу - он это будет учитывать при выдаче, если нет, то будет "усреднять" коефициент удобства вашего сайта.
То есть он их сканирует, разумеется, периодически, но не индексирует.
Ну для css и js наверняка у google свой робот, который к контенту отношения не имеет. Но, я уверен, лишние "конструкции" в этих файлах сказываются негативно. Либо будут сказываться негативно, когда в google прочухают смотреть эти файлы более подробно, или отдавать на индексацию роботу контентщику после того как структура сайта будет выстроена с учетом css и js (хотя это уже должно быть так по идее).
В любом случае, хорошо, что остается рабочий вариант сокрытия тех же ссылок от индексации.
Гугл их до сих пор не индексирует!
Кстати, а как при этом страница отображается в разделе google вебмастера "посмотреть как google" ???
Я думаю весь этот сыр-бор с js файлами придуман в первую очередь для того, чтобы не скрывать от гугла, что например на сайте всё тизерами и всякой всячиной обвешано.
Я думаю весь этот сыр-бор с js файлами придуман в первую очередь для того, чтобы...
Я тоже люблю истории про теорию мирового заговора и тому подобное. Но, вероятно, в этом случае это всего лишь долгожданный и закономерный процесс развития, момент, которому давно следовало бы случится.
Tref, не вижу противоречий, одно другому не мешает. Гугл будет смотреть что там в js и учитывать/оценивать это.