- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Бывает что пользуюь этой удобной услугой (http://www.be1.ru/stat/ если кто не знал). Так вот сегодня мысль пришла: хорошо бы в отчет этого сервиса добавить чтение страницы на предмет наличия в теле noindex. Да так, что бы отображалось в отчете только то, что закрыто для индексации
окей, я эту мысль обдумываю давно ... нужно проверить meta закрывающий ... можно посмотреть кол-во блоков <noindex> ... окей, сегодня сделаю ...
была еще мысль сделать проверку "подозрение на спам" ...
была еще мысль сделать проверку "подозрение на спам" ...
А вот эта фича - действительно вещь стоящая !!!
По каким признакам собираетесь вычислять: накачивание текста ключевыми словами, скрытый текст, злоупотребление хэдерами ?
а <META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW"> он выводит?
И еще, что такое Rank_1:X:Y справа от столбиков тИЦа?
Тогда, наверное, еще можно сделать проверку "подозрение на клоакинг" (по агенту). Или об этом и шла речь?
Я думаю, если в данный tool вставить ещё ссылки на статистику запросов Я и Р, то его можно будет назвать вообще практически уникальным (в плане правильности подбора частотности ключевых слов)
NULL, последняя цифра - это значение PR от Гугля, типа Y/10
ой, с этим тяжелее будет ... там же и на реферы проверять на надо ... а подсетку (яндекса, рамблера, гугля) я сэмулировать не смогу ... т.е. как минимум еще 6 дополнительных запросов ...
Professor, спасибо за ресурс, счас ссылку на него поставлю для поддержки
С подсеткой понятно, что никак, а на рефов можно забить - у ботов "HTTP_USER_AGENT" поле запроса пустое - проверял.
да, у ботов да, но у пользователей всегда (99%) при клике он есть ... и тут ему Location: http://www.client.ru/?from=somewhere вместо контента ...
Сделал простую проверку - пример http://www.be1.ru/stat/?url=http%3A//forum.searchengines.ru/
Чуть позже сделаю более корректную с точки зрения HTML, подгружаемых CSS и Ява-скриптов.