- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пойдет ли робот по ссылке, если она закодирована спецсимволами типа site.ru
будет ли ценна такая ссылка или толку мало?
Другими словами, что делает робот? он смотрит код или скачивает страницу подобно браузеру?
Подобно браузеру, в соответствии со спецификацией RFC 2396.
большое спасибо
а читает ли робот CSS в отдельном файле?
Он все читает, инструкции ssi на сервере тоже выполняются.
Он все читает, инструкции ssi на сервере тоже выполняются.
нет, не все, java скрипты, например, он не смотрит. Как утверждают разработчики, и css он тоже не смотрит, так как это информация для браузера, а не для пользователя.
поаккуратнее с такими заявлениями. Я ни разу не видел, чтобы роботы забирали файлы с расширением .CSS, а тем более .JS.
Поправьте, если не права, но зачем роботу css? Роботы очень бережливые существа, так что читать и хранить в базе то, что для них ничего не значит не будут.
Поправьте, если не права, но зачем роботу css? Роботы очень бережливые существа, так что читать и хранить в базе то, что для них ничего не значит не будут.
CSSом легко спамить - закрывать от видимости блоки и т.д.
Как с этим робот будет бороться?
Про js я ничего не писал (читает - не равно выполняет)... А css, думаю, он все же смотрит. Иначе как бороться с тэгом H1=10px? Думаете все вручную модерится?
Как с этим робот будет бороться?
Хороший вопрос. Но практика показывает, что с этим борются конкуретны, которые пишут письма в спам-репорт и модераторы, которые их читают. Правила форума не позволяют приводить подобных примеров, но я знаю не один сайт, где h1 как раз 10px и не является логическим заголовком страницы. И он не забанен.
10px это еще ничего
вот если делать вобще display:none или блок прятать за зону видимости, поймет ли робот что его спамят?
или бан будет только тогда когда конкуренты настучат?