Идея сервиса закрытого поисковика для SEO. Нужен ли такой?

12
N
На сайте с 05.06.2007
Offline
47
1180

В Рунете много SEO сервисов, которые предоставляют анализ той или иной группы сайтов по разным критериям. В основном все они работают через не вполне честный парсинг ПС.

Например определение ТИЦ и позиций в Яндексе через парсинг Яндекса.

Но много информации, которую хранят ПС никакими запросами из них не выудить.

Нельзя например осуществлять поиск по конкретным тегам и их атрибутам, получать разнообразне текстовые метрики и т.п.

Родилась идея создать для подобных целей собственный индекс интернета. Т.е. такой маленький собственный поисковичек на гараздо более ограниченных ресурсах.

У некоторых SEO контор по слухам есть такие.

В связи с чем у меня вопрос к почтеннейшей публике: какие особо-ценные данные для SEO можно было бы получить из такого индекса?

Допустим у вас есть доступ к такому ПС сервису, что бы вам было интересно извлечь из оного?

SaleSeo
На сайте с 26.07.2007
Offline
352
#1

По логике, надо работать там где все варятся и выходят в топ.

Это и есть общие выдачи обычных ПС

Какая ценность будет от закрытой ПС со своими алгоритмами?

Прогон BULLET для крауд,PNB,зеркал,доров https://bootmasterru.com/postingbyxrumer.html | Честное SEO,настройка Я Директ,семантика и оптимизация под ключ https://saleseo.ru :)
Seolib
На сайте с 03.07.2008
Offline
159
#2

Я так понимаю человек предлагает держать индекс, типа кто на кого ссылается в основном. Верно?

Проверка позиций от 3 копеек за запрос! (https://seolib.ru/info/positions?from=se) - Гостевой доступ, группировка запросов, финансовый отчет, анализ посетителей из поиска.
юни
На сайте с 01.11.2005
Offline
931
#3

nalimka, ценность подобных сервисов прямо зависит от полноты информации, через них доступной. А от маленького поисковичка вряд ли будет толк.

https://searchengines.guru/ru/forum/944108 - прокси-сервис на базе операторов домашнего интернета, сотни тысяч IP-адресов, канал от 20 Мбит
Seolib
На сайте с 03.07.2008
Offline
159
#4

Не только полнота, но и скорость обновления ;)

А для этого нужны мощности, не намного меньше САМОГО.. ;)

юни
На сайте с 01.11.2005
Offline
931
#5

Ну, не факт, кстати. Мы как-то считали затраты на построение индекса, основная статья расходов пришлась на хранение данных (особенно с тем или иным бекапом) и на трафик.

Если же отдавать актуальную информацию без длительных хранения и отслеживания динамики, то даже с большим числом контролируемых параметров (сохранёнки, обработка роботса, комментариев, ноиндекс/нофоллоу и пр.) цифра получилась не такой уж и пугающей.

R
На сайте с 03.04.2008
Offline
90
#6

все-равно большинство интересных параметров так или иначе связаны с индексами поисковиков, поэтому получится, что основная проблема это то, что подобному сервису придется парсить те самые выдачи, парсинг которых он хочет заменить...

ICQ: 577-662-540 продвижение сайтов за еду (/ru/forum/480944) продвину Ваш сайт за 3000/мес. Портфолио по запросу
юни
На сайте с 01.11.2005
Offline
931
#7
rusevgen:
подобному сервису придется парсить те самые выдачи

Так это не проблема.

Белый Ум
На сайте с 27.04.2009
Offline
251
#8
rusevgen:
все-равно большинство интересных параметров так или иначе связаны с индексами поисковиков, поэтому получится, что основная проблема это то, что подобному сервису придется парсить те самые выдачи, парсинг которых он хочет заменить...

Проблемы вообще не связаны с индексом поисковиков. Тот сервис который требуется и необходим всем сеошникам - построение ссылочного графа интернета. Нужен поисковик который отдавал бы все ссылки на сайт/страницу и рассчитывал бы гугл ПР страницы в числах от 1 до 1000000.

Сейчас аналогов такому нет

из приближенных:

яху с лимитом в 1000 ссылок

соломоно с неполным индексом

яндексвебмастер только для своих сайтов

про язл я вообще молчу т.к кроме парсинга яху ничего эта программа не делает(из поиска ссылок).

Белый Ум добавил 01.12.2010 в 14:52

rusevgen:
подобному сервису придется парсить те самые выдачи, парсинг которых он хочет заменить...

Зачем, ну зачем ему их парсить? Чтобы получить начальный ссылочный граф7

Белый Ум добавил 01.12.2010 в 14:55

saleseo:
По логике, надо работать там где все варятся и выходят в топ.
Это и есть общие выдачи обычных ПС
Какая ценность будет от закрытой ПС со своими алгоритмами?

В том то и дело что из алгоритмов ранжирвания этой системе будет нужен только один - Гугл Пр.

Оромная ценность. Представьте себе, что вы имеете доступ к вебмастеру всех сайтов на свете.

Skype: shum_beliy
юни
На сайте с 01.11.2005
Offline
931
#9
Белый Ум:
яндексвебмастер только для своих сайтов

Уже больше года хотят открыть доступ к просмотру конкурентов, да всё никак...

Белый Ум:
Чтобы получить начальный ссылочный граф7
Именно. С того же Я.Каталога можно начать.
Белый Ум
На сайте с 27.04.2009
Offline
251
#10
юни:
С того же Я.Каталога можно начать.

я имел ввиду что парсер яндекс для этого не нужен вовсе.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий