- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На счет роботс что-то я не подумав написал. Это ж просто рекомендация. Есть ли какой-то способ запретить роботам физически проникать в нехороший js или css? Например с htaccess можно это решить?
запретить роботам физически проникать в нехороший js или css
Я мож чёт не понимаю, но зачем им лазить в css? Как они определят стиль, которым я скрыл текст?
Вот сейчас в голову пришла мысль. Что если в пхп для неботов прописать вставку закрытого js, который будет присваивать при загрузке нужному блоку класс из закрытого css?
И кто-нибудь ответит, имеет ли место стукачество?
---------- Добавлено 24.08.2014 в 18:31 ----------
Фома, ну на самом деле задача даже мне простой кажется. Читаешь класс дива, идешь в css, находишь этот класс, ищешь подозрительные строки (display none или белый текст на белом фоне) и все! Зачем? Для борьбы с клоакингом
---------- Добавлено 24.08.2014 в 18:41 ----------
P.S. после первых суток появились первые результаты для анализа. Страница со скрытым текстом в css опустилась в гугле на 5 позиций и скачет сейчас каждую минуту +- 4 позиции. Не знаю, с этим ли связано или еще с чем. Последний раз индексировалась 7 часов назад. В вебмастере при проверке как видит страницу робот - все как нужно. Как думаете за это опустил или при клоакинге вообще выбрасывает?
(display none или белый текст на белом фоне)
Не, ну это примитив, таким даже дорвейщики много лет уже не балуются. Да и как ПС определит белый текст на белом фоне, стили могут быть неоднозначными, а под display none часто скрываются выпадающие элементы и не только в меню. У меня с display none сайт с 2004 года по 2009 нормально жил - меню выпадушка.
Скрывать же текст можно просто div'ами уводя его в невидимую часть, если ПС это бы всё анализировали, вычислительные мощности выросли бы в разы, а это затраты, оно им надо? 🙅
Если и улетают подобные сайты в бан, думаю только по стуку конкурентов. Недавно так душевно вылез генереный сайтец по "услуга+метро" в регионе Москва, все запросы в топ1, и какой то гадёныш стуканул, надо же. 🙅 Благо такие сайты не затратны, просто кнопочку нажать + домен. 🍿
Фома, в яше по стуку вылетают или в гоше?) есть в гоше вообще стучалка?)
JungleBox, вылетел в Яндексе, 0 страниц. В Гугле до сих пор 1000+ страниц, но трафа оттуда по моей тематике немного, Москва, домохозяйки.
westgate, вот тебе код
jQuery(function ($)
{
$('#div-s-gentextom').replaceWith('<h1>Дабро пажаловать, на наш сайт!</h1> <p>Это риальнэ ДДЛ про гусей и фсех водоплающих.</p> ')
});
ПОдключаешь jQuery и вперёд. Сам так делаю на серых проектах в ВК тематике - проблем пока не наблюдаю.
Фома, ах да, забыл про увод блока за пределы экрана. Спасибо за подсказку! Думаете ПС не обременяют себя вычислениями положения? Кто-то писал из авторитетных на форуме, что спецом для посещаемых сайтов (а трафа у меня не мало) боты периодически загружают страницы под нестандартными юзерагентами полностью рендеря страницу как для человека. Как думаете байки или есть такое? Может у кого список скрытых юзерагентов поисковиков есть?
Кто-то писал из авторитетных на форуме, что спецом для посещаемых сайтов (а трафа у меня не мало) боты периодически загружают страницы под нестандартными юзерагентами полностью рендеря страницу как для человека.
Вот это я не знаю. Я профан в СЕО, а уж в аналитике так и ваще. Я как "Слепой лось бегущий через горящий лес. Меня ведёт судьба.".
Я вот задумался, может лучше спойлер сделать... Вроде как и настучать не на что и глаза не мозолит ненужный текст. Под спойлерами ведь поисковики нормально индексят?