Eruditor_

Рейтинг
43
Регистрация
26.04.2014
Должность
SEO, web Analytics, marketing
Интересы
SEO, web Analytics, marketing

Возможно, подсказку накрутили...или событие какое...

Не потянет она столько. Загнется после 150к

---------- Добавлено 23.12.2014 в 16:28 ----------

а из БД дернуть нельзя чтоли? Там же только 1 ошибка, насколько я понял. Пусть программисты автозамену сделают или удалят ошибку - не? Мне кажется, что эту проблему можно решить на уробне БД (могу ошибаться)

Да, мы это прекрасно понимаем, но было бы очень круто, если бы слова распределялись на страницы, даже если страницы не в индексе. Т.е. была бы привязка не к индексации, а к сайту, отдельно от индексации ПС...

Я не знаю, как это можно реализовать, но как вариант:

я бы, наверно, строил триграммы по тайтлам, привязывал бы их к страницам, а потом ядро пробивал на триграммы и далее уже пересекал релевантные запросы, ну тут даже дело не в униграммах, а приведению запросов к одной словоформе для более лучшего пересечения и определения релевантности.

Тестировали несколько ядер под проекты. Что можно сказать:

1) Если у вас большой проект и много семантики, и есть страницы не в индексе - будете результат переделывать.

Сервис пробивает на запросы на релевантность для конкретного домена, а потом группирует эти запросы, думаю, по 2м алгоритмам:

1 - это группировка на основе релевантных результатов и

2 - это группировка на основе семантической схожести

У нас, к примеру, есть страницы не в индексе, поэтому пришлось переделывать посадочные страницы, которые определил сервис. Это, блин, ахрененный минус.

2) Да, сервис действительно работает быстро. Обработал 10к в тот же день (не помню сколько часов заняло, не буду врать)

3) Цена - адекватная: 0,4р за запрос. Тут могу сказать что дорого или еще что, но самому разгребать 10к запросов или вам распределят за несколько часов на 3к - выбор за вами. Время-деньги....

По поводу работы сервиса. При должных плюсах - минусы очевидны, если страница под кластер запросов не в индексе - посадят группу запросов на более-менее релевантную страницу, но потом самому придется разгребать.

Сказать что доволен работой сервиса - не могу. Сказать что не доволен - тоже не могу. Выбор за вами.

ну тут же речь, как выяснилось, о бесплатных или дешевых методах, поэтому ручками копируем и вставляем в эксельку.

2500 урлов

в индексе, подозреваю, меньше...

на копипаст потратиться около часа, пока Спайдер будет краулить сайт.

Ну а дальше чистим ексель и отсекаем.

Как-то так.

Если страниц больше - так делать уже извращение

---------- Добавлено 18.12.2014 в 13:26 ----------

Если есть кейколлектор - можно через него просто пробить запросы, какой вид запроса - я писал выше.

Или словоебом - тоже самое

Предварительно, конечно, собираем список всех урлов сайта

Так же можно (вроде есть какой-то софт бесплатный для пробивки позиций), вроде эта

Majento PositionMeter

Ну вот, вот и автоматизация:

Краулим на автомате спайдером

Пробиваем индексацию через Majento PositionMeter

На выходе получаем файл с бинарной логикой 1/0, где

1- в индексе

0 - не в индексе

Всех устраивает?!)

Voland010:
как отсечь-то? :) Ручками зрительно? :)

Продам мануал, как пользоваться функцией ВПР в екселе за 500р -)

Voland010:
dmkolesnikov, ну понятно, что речь все же о бесплатных ресурсах или небольших деньгах :)

А чем тебя не устраивает вариант:

Спайдером проходишь по всем ссылкам сайта (на автомате), сохраняешь в CSV

Далее из ЯВМ выгружаешь те, что в индексе, и отсекаешь их из общего файла, который собрал спайдер.

Вот тебе и страницы, которые не в индексе. Не?!)

И да, из первого поста непонятно, что речь идет о бесплатных ресурсах или небольших деньгах, поэтому я и привел как платный, так и бесплатный софт.

Дальше сам...

1) Можно скачать сайтмап и пробить все урлы на индексацию, ну а там просто выбрать, что не в индексе

2) можно скачать сайтмап + выгрузить страницы, которые в индексе из ЯВМ, пересечь, и выбрать те, что не в индексе

3) Если сайт не большой - ну тут сайтмап, Page Weight, Xenu (вроде так), Net Peak Spider (вроде так) - софтины обойдут сайт и вытащат все урлы. Последняя - бесплатная.

Насчет "большого сайта". При более 100к страниц у меня все эти софтины легли...-(

Может что-то упустил, но вроде все

Теперь по поводу как найти непроиндексированные урлы:

ну тут, как я писал выше, либо:

1) Собираем все урлы с сайта из сайтмапа или с помощью софта, далее выгружаем то, что есть в индексе ЯВМ, ну и отсекаем то, что в индексе

2) Пробиваем все собранные урлы из сайт через Яззл ( меня так бесит эта прога, на больших объемах виснет)

3) Просто пробиваем урлы с помощью запроса: url:siti.ru/uri/

и там будет простая логика 1/0

1 - в индексе

0 - не в индексе.

satellitmaker:
Если речь идет о суб-домене то в Google analytiks не обязательно заводить новый аккаунт, а достаточно создать новый ресурс.

Все верно.

Регистрировать субдомены в вебмастерах гугла и яндекса - обязательно.

Добавлять счетчик GA на субдомен - необязательно - просто создается новый фильтр в представлении и настраивается по хосту sub.site.ru

Оллпозишн, Сеолиб, Сеорейт...кому что больше нравится)

Всего: 103