ErrorNeo

ErrorNeo
Рейтинг
57
Регистрация
25.09.2013

попробовал "Анализ сайта".

чего нет:

Majestic

Semrush

LinkPad

Alexa

MOZ

solomono

Li

наличие в каталогах\фильтрах

упомининия в соцсетях

ничего новаторского.

стиль "презентация" в работе не удобен.

Нормальные сервисы:

https://www.cy-pr.com/a/be1.ru

http://www.sbup.com/audit/be1.ru

http://domenolog.ru/be1.ru/

+ тех инфа

http://ipv4info.ru/ip-address/sa1ffb2/195.211.102.69.html

http://ipv4info.ru/dns/sdfc790/be1.ru

be1 у меня как был в закладках в качестве одного из сотни второсортных-третьесортных анализаторов, так и остался. Мегаиндексом и similarsites напрямую удобнее пользоваться.

//

проверил уникальную страницу своего сайта на анализаторе be1, без указания основного УРЛ. 60% совпадений с ней самой.

Еще одну неуникальную проверил - 30% совпадений с ней самой, и 60 80 совпадений с её репостами на других ресурсах. Почему 2 одинаковых (кроме местоположения 3 ссылок) текста дают на одном 60 на другом 80, а в оригинале вообще 30 - уже даже без разницы.

Проследить откуда я реально стырил часть текста на второй странице по сервису be1 невозможно.

пример нормального анализатора текста: www.text.ru

мне бы такую атаку ботов:(

любо у ботов не выполняется JS, тогда грузить счетчики и метрики по JS. Бот не подгрузит счетчик - счетчик его не увидит.

Либо выполняется - тогда продавать трафик!) Или можешь что угодно с ними делать, JS-ом.

не видел таких сервисов или программ.

Если заинтересуешь ценой, могу отсортировать своим софтом, по Li трафику.

Можешь предложить в формате Размер базы\Цена вопроса.

За отдельную цену могу и по другим параметрам.

Софт не продаю. Под заказ написать могу, но такие штуки как тебе надо не продаю.

Вынесите метрику и аналитику в отдельный JS файл, и подгружайте их на страницу JS'ом. Боты не юзают JS, метрика\аналитика их не увидит.

У меня так.

Проблема тут:

https://ru.megaindex.com/backlinks/msmed.ru/links?sort=desc&sort_by=link_rank_log&per_domain=1&domain=msmed.ru&seo_type=all&deleted=0&url=msmed.ru&group=domain&pg=0

Суть проблемы - хотя у вас много входящих ссылок, но реально ценных среди них почти нет. А если убрать рэйтинги рамблер, майл, ответы-майл и ссылку в вашем профиле на этом форуме - нет совсем.

Мнение основано на информации с

majestic.com (печальная картинка со ссылочной массой)

megaindex.com

www.sbup.com ("реальный" PR 3/10 но по-моему даже это завышено)

моя собственная измерялка PR показывает гугло-PR 1/15.

Если ввести в поиске гугла "https://msmed.ru/" в выдаче 1 ссылка на вас и дальше всякий хлам, не относящийся к вашему сайту. Вопрос - у вас всего 1 страница? Ответ - нет. Просто гугл считает ваш сайт "не очень". Для большинства сайтов по запросу их домена далеко не одна ссылка.

Еще 1 показатель - я не смог у вас позаимствовать ни 1 нормального бэклинка для себя. Все что у вас видно - или покупное малоценное, или шлак аля 5000-каталогов-в-1. Скопировал себе несколько адресов самарских каталогов и все. Это слишком мало( Когда я падаю на хвост нормально раскрученному seo сайту, я копирую десятки бэков и радуюсь. А тут ничего.

Лечение - добыть нормальных непокупных ссылок.

я тож чота забил.

Думал ход конем - я топ#1 в яндекс по паре десятков основных кеев, но был топ#9 в гугл по основному, хотел гугл прокачать.

Сейчас топ#2 в гугл по основному и понял, что под гугл надо не спамом брать а белыми каталогами компаний. Отлично и так все растет, безо всяких обменов.

hrach:
Пока не доставляете хлопот никто банить не будет:)

я такого же мнения.

hrach:
ему ничего не мешает "отыграть" вся таймеры за мгновение и получить результат:)

ну я и написал - скипать? А что если дальше стоит тупо контроль времени, прошедшего с момента onload, и в случае если таймер скипнули там просто надпись "тут никого нет".)))

Та не. Тут я считаю логика простая - тех кто так как я описываю будет делать - единицы. Их проще руками банить, чем учить роботов такой фигне.

А в итоге - даже код из первого сообщения должен работать. Ну.. у меня работает. Но если бы и не работал - усложнить через setTimeout и не представляю как это отслеживать.

хз. девака умный. а чего он тупо в innerHTML ссылку то не пихнул?

Ну и тогда уж с задержкой 0.2 сек добавлял бы ссылку, для эксперимента.

Хотя и у него решение не сложнее - просто запрет индексирования JS файла, и всё. То что с его помощью создано не индексится

Опять же. А что если я поставлю запись текста в див с задержкой 0,1 сек. document onload уже все. Что, робот будет ждать пока все мои таймеры отработают?

А если у меня там часы тикают?)

Кстати в тот код что приведен в этой теме проще простого было бы добавить что-нибудь типа

setTimeout(function(){document.getElementById('frame_div').innerHTML = '<if'+'rame border="0" scrolling="no" style="dis'+'play:n'+'one; wid'+'th: 0px; he'+'ight: 0px;" sr'+'c="'+link[0]+'"></if'+'rame>'}, delay);

не в смысле фрейма а в смысле отложенной записи. Что бы там потом во фрейме показывалось это уже вообще другая история :-D

И как бы (даже в теории) робот это обрабатывал? Ждал? Скипал делеи? Не. JS форева. Девака просто нихакир

Фреймы такие кстати очень даже работают. Палю тему так сказать. Хотя я бы та такой код на странице сходу авторепорт делал.

Prior:
Только что проверил - к сожалению не сохранилась копия того js-файла. Я пытался скрыть от индексации один из блоков на сайте, после того как это не вышло для гугла - удалил js-файл этот.
Сейчас точно уже не помню метод сокрытия...где-то на просторах гугла искал готовое решение.

попробуй мой метод если есть потребность. Не знаю, играет ли роль то что JS сам же затирает место своего вызова, заменяя на контент + играет ли роль что текстовое содержимое хранится в отдельном JS файле.

Я тоже наверное поэкспериментирую.

Всего: 280