попробовал "Анализ сайта".
чего нет:
Majestic
Semrush
LinkPad
Alexa
MOZ
solomono
Li
наличие в каталогах\фильтрах
упомининия в соцсетях
ничего новаторского.
стиль "презентация" в работе не удобен.
Нормальные сервисы:
https://www.cy-pr.com/a/be1.ru
http://www.sbup.com/audit/be1.ru
http://domenolog.ru/be1.ru/
+ тех инфа
http://ipv4info.ru/ip-address/sa1ffb2/195.211.102.69.html
http://ipv4info.ru/dns/sdfc790/be1.ru
be1 у меня как был в закладках в качестве одного из сотни второсортных-третьесортных анализаторов, так и остался. Мегаиндексом и similarsites напрямую удобнее пользоваться.
//
проверил уникальную страницу своего сайта на анализаторе be1, без указания основного УРЛ. 60% совпадений с ней самой.
Еще одну неуникальную проверил - 30% совпадений с ней самой, и 60 80 совпадений с её репостами на других ресурсах. Почему 2 одинаковых (кроме местоположения 3 ссылок) текста дают на одном 60 на другом 80, а в оригинале вообще 30 - уже даже без разницы.
Проследить откуда я реально стырил часть текста на второй странице по сервису be1 невозможно.
пример нормального анализатора текста: www.text.ru
мне бы такую атаку ботов:(
любо у ботов не выполняется JS, тогда грузить счетчики и метрики по JS. Бот не подгрузит счетчик - счетчик его не увидит.
Либо выполняется - тогда продавать трафик!) Или можешь что угодно с ними делать, JS-ом.
не видел таких сервисов или программ.
Если заинтересуешь ценой, могу отсортировать своим софтом, по Li трафику.
Можешь предложить в формате Размер базы\Цена вопроса.
За отдельную цену могу и по другим параметрам.
Софт не продаю. Под заказ написать могу, но такие штуки как тебе надо не продаю.
Вынесите метрику и аналитику в отдельный JS файл, и подгружайте их на страницу JS'ом. Боты не юзают JS, метрика\аналитика их не увидит.
У меня так.
Проблема тут:
https://ru.megaindex.com/backlinks/msmed.ru/links?sort=desc&sort_by=link_rank_log&per_domain=1&domain=msmed.ru&seo_type=all&deleted=0&url=msmed.ru&group=domain&pg=0
Суть проблемы - хотя у вас много входящих ссылок, но реально ценных среди них почти нет. А если убрать рэйтинги рамблер, майл, ответы-майл и ссылку в вашем профиле на этом форуме - нет совсем.
Мнение основано на информации с
majestic.com (печальная картинка со ссылочной массой)
megaindex.com
www.sbup.com ("реальный" PR 3/10 но по-моему даже это завышено)
моя собственная измерялка PR показывает гугло-PR 1/15.
Если ввести в поиске гугла "https://msmed.ru/" в выдаче 1 ссылка на вас и дальше всякий хлам, не относящийся к вашему сайту. Вопрос - у вас всего 1 страница? Ответ - нет. Просто гугл считает ваш сайт "не очень". Для большинства сайтов по запросу их домена далеко не одна ссылка.
Еще 1 показатель - я не смог у вас позаимствовать ни 1 нормального бэклинка для себя. Все что у вас видно - или покупное малоценное, или шлак аля 5000-каталогов-в-1. Скопировал себе несколько адресов самарских каталогов и все. Это слишком мало( Когда я падаю на хвост нормально раскрученному seo сайту, я копирую десятки бэков и радуюсь. А тут ничего.
Лечение - добыть нормальных непокупных ссылок.
я тож чота забил.
Думал ход конем - я топ#1 в яндекс по паре десятков основных кеев, но был топ#9 в гугл по основному, хотел гугл прокачать.
Сейчас топ#2 в гугл по основному и понял, что под гугл надо не спамом брать а белыми каталогами компаний. Отлично и так все растет, безо всяких обменов.
я такого же мнения.
ну я и написал - скипать? А что если дальше стоит тупо контроль времени, прошедшего с момента onload, и в случае если таймер скипнули там просто надпись "тут никого нет".)))
Та не. Тут я считаю логика простая - тех кто так как я описываю будет делать - единицы. Их проще руками банить, чем учить роботов такой фигне.
А в итоге - даже код из первого сообщения должен работать. Ну.. у меня работает. Но если бы и не работал - усложнить через setTimeout и не представляю как это отслеживать.
хз. девака умный. а чего он тупо в innerHTML ссылку то не пихнул?
Ну и тогда уж с задержкой 0.2 сек добавлял бы ссылку, для эксперимента.
Хотя и у него решение не сложнее - просто запрет индексирования JS файла, и всё. То что с его помощью создано не индексится
Опять же. А что если я поставлю запись текста в див с задержкой 0,1 сек. document onload уже все. Что, робот будет ждать пока все мои таймеры отработают?
А если у меня там часы тикают?)
Кстати в тот код что приведен в этой теме проще простого было бы добавить что-нибудь типа
не в смысле фрейма а в смысле отложенной записи. Что бы там потом во фрейме показывалось это уже вообще другая история :-D
И как бы (даже в теории) робот это обрабатывал? Ждал? Скипал делеи? Не. JS форева. Девака просто нихакир
Фреймы такие кстати очень даже работают. Палю тему так сказать. Хотя я бы та такой код на странице сходу авторепорт делал.
попробуй мой метод если есть потребность. Не знаю, играет ли роль то что JS сам же затирает место своего вызова, заменяя на контент + играет ли роль что текстовое содержимое хранится в отдельном JS файле.
Я тоже наверное поэкспериментирую.